JP7189434B2 - 空間制御システム - Google Patents
空間制御システム Download PDFInfo
- Publication number
- JP7189434B2 JP7189434B2 JP2019003125A JP2019003125A JP7189434B2 JP 7189434 B2 JP7189434 B2 JP 7189434B2 JP 2019003125 A JP2019003125 A JP 2019003125A JP 2019003125 A JP2019003125 A JP 2019003125A JP 7189434 B2 JP7189434 B2 JP 7189434B2
- Authority
- JP
- Japan
- Prior art keywords
- agent
- environment
- user
- control system
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
Description
(1-1)空間制御システムの概要
近年、人との高い親和性を感じさせる擬人的なロボット等のエージェントが開発されている。しかし、人は、かかるエージェントと長時間接していると、エージェントの存在に馴化が生じ飽きてしまうため、その効果を長時間持続させることが難しい。本開示に係る空間制御システムは、対象空間において、ユーザーと環境生成装置とを媒介するエージェントが環境を制御している印象をユーザーに抱かせることで、さりげなく場の雰囲気を和らげるような空間演出を行う。
本実施の形態に係る空間制御システム1は、図1に示すように、エージェントロボット50、環境生成装置10、及び制御装置20を備える。空間制御システム1は、対象空間Sに配置され、対象であるユーザー5の感情に応じた環境を生成する。
図2は、エージェントロボット50の外観を示す。同図に示すように、エージェントロボット50は、アクチュエーターの一例であり、丸い壺形状の胴体部501と、胴体部501の中央から突き出た、先の丸い筒状の頭部502とを有する。頭部502の側面には、キャラクターの顔を想起させる目が示される。なお、キャラクターの顔は、内蔵されたプロジェクターで、内部から目を投影して頭部502の側面に映してもよいし、頭部502の側面に直接目を描いても良い。胴体部501の上部には、頭部502を囲むようにベース面503が設けられる。胴体部501には、後述するタッチセンサが配される。エージェントロボット50は、胴体部501にユーザー5が触れることにより、頭部502が胴体部501に引っ込んだり、突き出たりする動作を行う。なお、タッチセンサは頭部502及び/又はベース部503に配されてもよい。また、エージェントロボット50は、動作を行うために、タッチセンサによる操作を介する必要はなく、他のセンサー、カメラ、マイクからの入力に応じて動作を実行してもよい。例えば、エージェントロボット50は、ユーザー5、後述する環境生成装置10により生成される環境、又はその他の装置と同期して動くことができる。
環境生成装置10は、制御装置20による制御により、対象空間Sの環境を生成又は変化させて所定の環境を生成することが可能な任意の機器である。環境生成装置10が環境を生成又は変化させる結果として、対象空間S内のユーザー5の感覚に特定の影響が与えられる。具体的には、環境生成装置10の構成機器として、空気調和装置、音響装置、照明装置、プロジェクター、スピーカー、ロボット、匂い発生機器等が挙げられる。例えば、図1では、環境生成装置10としてのプロジェクターが、対象空間Sの壁面に多数の表示物Rを投影する(プロジェクションマッピング)。表示物Rは、後述するように、エージェントロボット50の動作に同期して変化させる。表示物Rは、点の数・動く方向・大きさ・色彩・形状等を変更することにより、多様な動作を表現する。また、その他の環境生成装置10を同時に作動させ、表示物Rに合わせて、光、色、音、匂い、風等を付与又は変化させてもよい。
制御装置20は、エージェントロボット50の動作情報又はユーザー5に生起させようとする感情を特定する情報に応じて、環境生成装置10を制御する。制御装置20は、任意のコンピュータにより実現する。制御装置20は、図4に示すように、記憶部21、通信部22、処理部23、制御部24、出力部25を備える。ここでは、コンピュータのCPU、GPU等に記憶装置(ROM、RAM等)に記憶されたプログラムが読み込まれることで、上記各機能が実現される。ただし、これに限らず、制御装置20は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等を用いてハードウェアとして実現されるものでもよい。
図6は、本実施形態に係る空間制御システム1の動作を説明するためのフローチャートである。
本実施の形態による空間制御システム1は、環境生成装置10と、エージェントロボット50と、制御装置20とを備える。環境生成装置10は、対象空間Sにおいて一以上の環境が生成可能である。エージェントロボット50は、対象のユーザー5に生起させようとする感情に応じた動作を実行するエージェントを実現する。制御装置20は、エージェントロボット50の動作に応じた所定の環境を生成するように環境生成装置10を制御する。
(1-5-1)変形例1
本開示に空間制御システム1は、例えば空調システムに適用可能である。この場合、空気調和装置のインターフェースとして視聴覚を通じてユーザー5に認知されるエージェントを設ける。インターフェースは、ロボットであってもよいし、音声や表示装置に表示されるキャラクターであってもよい。例えば、エージェントが環境を制御している印象をユーザー5に抱かせる演出を行い、その後ユーザー5が空気感をコントロールする。このような形態で空調をコントロールすることで、温度、湿度、気流等を調整する、という空気調和装置の役割に追加して、エージェントが部屋の雰囲気を生成するという感覚をユーザー5に付与することが期待できる。
上記説明では、エージェントロボット50がユーザー5の感情を推測するための入力手段として、キーボード、マウス、タッチパネル、触感デバイス等の入力装置を有する任意の端末装置を用いてもよい。この場合、端末装置30は有線又は無線でエージェントロボット50に接続され、通信部55を介してユーザー5の感情を推測するために必要な情報を送信する。また、この場合、ユーザー5がなりたい感情を音声やテキストで積極的に入力するようにしてもよい。或いは、ユーザー5は、なりたい感情を擬態語又は擬音語等で表現したものを音声やテキストで入力してもよい。
上記説明では、環境生成装置10と制御装置20とは別の装置としていたが、これらは同一の装置に一体として組み込まれるものでもよい。
上記説明では、エージェントは擬人的なエージェントロボット50により実現される例に挙げていたが、これに限定されない。エージェントは、空気調和装置、プロジェクター、ロボット、色彩変化機器、リズム機器、光量変化機器、音声機器、匂い発生機器、及び表示装置等のアクチュエーターによって実現され、人が親和性を感じられる生物的要素をもつ存在であればよい。エージェントを構成する要素は、その動作によりユーザー5の視覚、聴覚、触覚、嗅覚、味覚のうち少なくとも1つの感覚を喚起する装置により実現されるものであればよい。
以下、本開示の空間制御システムにおけるエージェントの意義や機能について説明する。
ミニマルデザインとは、ある対象の存在をユーザーの心の中に成り立たせる為に必要な最小の感覚刺激を指す。このような最小限の刺激だけを提示することで、ユーザーが対象について自由に想像可能な余白が生まれる。このようなユーザーの想像力を適切に喚起するミニマルデザインをうまくエージェント設計に取り入れることで、設計者の存在をユーザーに感じさせにくくなり、エージェントの“あざとさ”を大幅に軽減できると期待できる。
ミニマルデザインにもとづくエージェントがユーザーに働きかける方法として、身体感覚を利用することが考えられる。人の認知や感情は、それとは直接的には関係ない感覚刺激の提示によって変容することが知られている。例えば、持っている物の重さで意思決定の質が変化する、周辺視に提示する視覚的フローが我々の行動や感情にも影響を与える、柔らかい触覚を感じさせることで疑心暗鬼が低減する、等の身体感覚と認知や感情の関係に言及した数多くの知見が知られている。身体感覚が人の認知や思考に影響を与えるプロセスは身体性認知と呼ばれる。発明者らは、このような感覚が認知や態度に与える潜在的影響をうまく利用することで、バックグラウンドでの心理サポートをユーザーが取り組んでいる主作業を邪魔しないで提供可能になるのではないかと考えた。具体的にはエージェントが様々な感覚刺激を生成することにより、ユーザーに心理サポート的な働きかけを行うというシステムデザインである。
前述のように言語的説明に依らない生成モデルを用いてユーザーの心理サポートを行う場合、どのようにユーザーの状況に適合した生成モデルを適切に選択するのか、という問題が生じる。その一つの方法として、様々なセンサーでユーザーの行動・生理データを収集し、そこから推定されたユーザーの内部状態に対して適切なサポートを自動的に提供するようなシステムが知られている。しかし、人の心というものは抽象的であり個人差も大きいため、どのようなサポートが必要な状況なのかを客観的に外部から推測することは非常に困難である。またこのような一方向的サポートは、人の心理的リアクタンスを強め、システムに対する反発を生じさせる恐れもある。
これまで述べてきたような寄り添いエージェントを設計するためには、エージェントの内部に様々な心理サポートを行うための感覚刺激の生成モデルを保持させておく必要がある。また、このような生成モデルの個数が有限であると、やがてユーザーはエージェントの振る舞いに“あざとさ”を感じてしまったり、飽きてしまったりする恐れがある。従って、エージェントには逐次、新しい生成モデルを獲得させていく必要がある。近年、人工生命等の分野において、新しいパターンを自己組織的にプログラムに生成させる試みがなされている。一方で、このような“機械に任せる”パターン生成の方法のみでは、既存のものと類似したパターンが生まれやすかったり、人の感性と大きく乖離した無意味なパターンが生まれやすくなったり等、意味のある新しい生成モデルを安定的に増やしていくことが難しい。
“会議が難航して空気が澱む”や、逆に“空気が赤ちゃんによって和む”、といったように、しばしば物理的な空気の特性を超えた形でより主観的に空気の特性を感じることがある。また森の中の日だまりの中に何か大きなものに抱擁されるような暖かさを感じたり、夜中の墓地で誰もいない暗闇から視線を感じたりといったように、しばしば空気の中に見えないエージェントの気配を感じることもある。このような空気に感じる我々の主観的印象を“空気感”という言葉で定義し、このような空気感自体を上述した原理に従ってエージェント化することを試みる。
図9A~図9Eは、上述したエージェントロボットのデザインの一例を示す。図9Aは、エージェントロボットの上方斜視図である。図9Bは、エージェントロボットの下方斜視図である。図9Cは、エージェントロボットの正面図である。図9Dは、エージェントロボットの動作後の状態(図2に示す頭部502を引っ込めた状態)を正面から示す図である。図9Eは、エージェントロボットの平面図である。図9Fは、エージェントロボットの底面図である。
以上、実施形態を説明したが、特許請求の範囲の趣旨及び範囲から逸脱することなく、形態や詳細の多様な変更が可能なことが理解されるであろう。
10 :環境生成装置
20 :制御装置
21 :記憶部
22 :通信部
23 :処理部
24 :制御部
25 :出力部
30 :端末装置
50 :エージェントロボット
51 :制御部
52 :検出部
53 :入力部
54 :メモリ
55 :通信部
56 :出力部
57 :電源
501 :胴体部
502 :頭部
503 :ベース面
504 :底部
R :表示物
S :対象空間
W :壁
Claims (10)
- 対象空間において一以上の環境が生成可能な環境生成装置と、
対象のユーザーに生起させようとする感情に応じた動作を実行するエージェントロボットと、
前記エージェントロボットの動作に応じた所定の環境を生成するように前記環境生成装置を制御する制御装置と、を備え、
前記エージェントロボットの動作は、生起させようとする感情に応じた動作を学習した感覚刺激生成モデルに基づいて実行され、
前記感覚刺激生成モデルは、対象のユーザーの個人特性に合わせて学習されたものである、
空間制御システム。 - 前記エージェントロボットは、生物的要素を有するインターフェースを含む、
請求項1に記載の空間制御システム。 - 前記エージェントロボットは、複数の動作を実行可能であり、
前記環境生成装置は複数の環境を生成可能であり、
前記複数の動作と前記複数の環境とは対応付けられ、
前記制御装置は、前記複数の動作と前記複数の環境との対応付けに基づき前記所定の環境を生成するように前記環境生成装置を制御する、
請求項1又は2に記載の空間制御システム。 - 複数の前記環境生成装置を備え、
前記制御装置は、前記エージェントロボットの動作に応じた前記所定の環境を生成するように前記複数の環境生成装置を制御する、
請求項1から3のいずれかに記載の空間制御システム。 - 前記制御装置は、前記エージェントロボットの動作に同期して前記環境生成装置に前記所定の環境を生成させた後、前記環境生成装置による前記環境の生成を一時的又は間欠的に停止させ、
前記エージェントロボットは、前記制御装置が前記エージェントロボットの動作に同期して前記環境生成装置に前記所定の環境を生成させた後、動作を一時的又は間欠的に停止させる、
請求項1から4のいずれかに記載の空間制御システム。 - 前記制御装置が、前記エージェントロボットの動作に同期して前記環境生成装置に前記所定の環境を生成させている間、前記エージェントロボットは、動作を停止させる、
請求項1から5のいずれかに記載の空間制御システム。 - 前記環境生成装置は、前記対象空間内においてユーザーの感覚を刺激する装置である、
請求項1から6のいずれかに記載の空間制御システム。 - 前記エージェントロボットは、動作によりユーザーの五感のうち少なくとも1つの感覚を喚起させる、
請求項1から7のいずれかに記載の空間制御システム。 - 前記環境生成装置は、空気調和装置、音響装置、照明装置、匂い発生機器、又はプロジェクターである、
請求項1から8のいずれかに記載の空間制御システム。 - 入力情報を取得する入力装置を備え、
前記エージェントロボットは、前記入力情報に基づき、前記ユーザーに生起させようとする感情に応じた動作を実行し、
前記入力情報は、擬態語又は擬音語、或いは擬態語又は擬音語に対応する事象に基づき特定された情報を含む、
請求項1から9のいずれかに記載の空間制御システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019003125A JP7189434B2 (ja) | 2019-01-11 | 2019-01-11 | 空間制御システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019003125A JP7189434B2 (ja) | 2019-01-11 | 2019-01-11 | 空間制御システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020113025A JP2020113025A (ja) | 2020-07-27 |
JP7189434B2 true JP7189434B2 (ja) | 2022-12-14 |
Family
ID=71667065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019003125A Active JP7189434B2 (ja) | 2019-01-11 | 2019-01-11 | 空間制御システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7189434B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7185968B1 (ja) | 2022-04-28 | 2022-12-08 | AI Infinity 株式会社 | 振動情報出力システム、及び振動情報出力プログラム |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000005317A (ja) | 1998-06-22 | 2000-01-11 | Seiko Epson Corp | 生体の状態制御支援装置及びロボット制御装置 |
JP2002041276A (ja) | 2000-07-24 | 2002-02-08 | Sony Corp | 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体 |
JP2005327096A (ja) | 2004-05-14 | 2005-11-24 | Nippon Telegr & Teleph Corp <Ntt> | コミュニケーション支援方法、コミュニケーション支援装置及びコミュニケーションの支援を行うためのプログラム並びに当該プログラムを記録した記録媒体 |
JP2006320621A (ja) | 2005-05-20 | 2006-11-30 | Sharp Corp | ストレスケア装置およびそれを備えてなる空調装置ならびにロボット装置 |
JP2010022555A (ja) | 2008-07-18 | 2010-02-04 | Sharp Corp | 呼気センサを用いた刺激コントロールシステム |
JP2011215462A (ja) | 2010-04-01 | 2011-10-27 | Keio Gijuku | 嗅覚情報制御装置、嗅覚情報制御方法及び香り発生システム |
JP2014075045A (ja) | 2012-10-04 | 2014-04-24 | Sharp Corp | 制御装置、制御装置の制御方法、被制御装置、サーバ、制御プログラム、および記録媒体 |
WO2014192457A1 (ja) | 2013-05-30 | 2014-12-04 | ソニー株式会社 | クライアント装置、制御方法、システム、およびプログラム |
JP2016135530A (ja) | 2015-01-23 | 2016-07-28 | シャープ株式会社 | ロボット制御装置及びロボット |
WO2017051577A1 (ja) | 2015-09-25 | 2017-03-30 | ソニー株式会社 | 感情誘導システム、および感情誘導方法 |
JP2018022331A (ja) | 2016-08-03 | 2018-02-08 | 国立大学法人電気通信大学 | 音象徴語・パーソナリティ情報提供装置、音象徴語・パーソナリティ情報提供方法および音象徴語・パーソナリティ情報提供プログラム |
WO2018088319A1 (ja) | 2016-11-11 | 2018-05-17 | ソニーモバイルコミュニケーションズ株式会社 | 再生端末及び再生方法 |
-
2019
- 2019-01-11 JP JP2019003125A patent/JP7189434B2/ja active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000005317A (ja) | 1998-06-22 | 2000-01-11 | Seiko Epson Corp | 生体の状態制御支援装置及びロボット制御装置 |
JP2002041276A (ja) | 2000-07-24 | 2002-02-08 | Sony Corp | 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体 |
JP2005327096A (ja) | 2004-05-14 | 2005-11-24 | Nippon Telegr & Teleph Corp <Ntt> | コミュニケーション支援方法、コミュニケーション支援装置及びコミュニケーションの支援を行うためのプログラム並びに当該プログラムを記録した記録媒体 |
JP2006320621A (ja) | 2005-05-20 | 2006-11-30 | Sharp Corp | ストレスケア装置およびそれを備えてなる空調装置ならびにロボット装置 |
JP2010022555A (ja) | 2008-07-18 | 2010-02-04 | Sharp Corp | 呼気センサを用いた刺激コントロールシステム |
JP2011215462A (ja) | 2010-04-01 | 2011-10-27 | Keio Gijuku | 嗅覚情報制御装置、嗅覚情報制御方法及び香り発生システム |
JP2014075045A (ja) | 2012-10-04 | 2014-04-24 | Sharp Corp | 制御装置、制御装置の制御方法、被制御装置、サーバ、制御プログラム、および記録媒体 |
WO2014192457A1 (ja) | 2013-05-30 | 2014-12-04 | ソニー株式会社 | クライアント装置、制御方法、システム、およびプログラム |
JP2016135530A (ja) | 2015-01-23 | 2016-07-28 | シャープ株式会社 | ロボット制御装置及びロボット |
WO2017051577A1 (ja) | 2015-09-25 | 2017-03-30 | ソニー株式会社 | 感情誘導システム、および感情誘導方法 |
JP2018022331A (ja) | 2016-08-03 | 2018-02-08 | 国立大学法人電気通信大学 | 音象徴語・パーソナリティ情報提供装置、音象徴語・パーソナリティ情報提供方法および音象徴語・パーソナリティ情報提供プログラム |
WO2018088319A1 (ja) | 2016-11-11 | 2018-05-17 | ソニーモバイルコミュニケーションズ株式会社 | 再生端末及び再生方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2020113025A (ja) | 2020-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Salichs et al. | Mini: a new social robot for the elderly | |
US11815951B2 (en) | System and method for enhanced training using a virtual reality environment and bio-signal data | |
US8751042B2 (en) | Methods of robot behavior generation and robots utilizing the same | |
Parés et al. | Promotion of creative activity in children with severe autism through visuals in an interactive multisensory environment | |
Gervais et al. | Tobe: Tangible out-of-body experience | |
Wilson | Psychology and performing arts | |
JP7002143B2 (ja) | コミュニケーション解析装置およびそれに使用される測定・フィードバック装置、インタラクション装置 | |
US20090319459A1 (en) | Physically-animated Visual Display | |
US10783800B1 (en) | Sensor-based complexity modulation for therapeutic computer-simulations | |
Schnädelbach et al. | ExoBuilding: breathing life into architecture | |
JP7066115B2 (ja) | パブリックスピーキング支援装置、及びプログラム | |
JP7189434B2 (ja) | 空間制御システム | |
Parés et al. | MEDIATE: An interactive multisensory environment for children with severe autism and no verbal communication | |
WO2019215983A1 (ja) | 情報処理システム、情報処理方法、および記録媒体 | |
WO2020261977A1 (ja) | 空間提案システム、及び、空間提案方法 | |
JP7296626B2 (ja) | 情報処理装置及びプログラム | |
Bourahmoune et al. | Owro: A Novel Robot For Sitting Posture Training Based On Adaptive Human Robot Interaction | |
Di Dio et al. | Moving toward emotions in the aesthetic experience | |
JP6631746B1 (ja) | クラスタ分類装置、環境生成装置及び環境生成システム | |
Tajadura-Jiménez | Embodied psychoacoustics: Spatial and multisensory determinants of auditory-induced emotion | |
Turgay et al. | The role of the senses in children’s perception of space | |
Richard | Episodes of depression: Existential feelings and embodiment in SHARP OBJECTS | |
Kruijff | Unconventional 3D user interfaces for virtual environments | |
JP6611538B2 (ja) | 生体信号出力装置 | |
Grillon | Simulating interactions with virtual characters for the treatment of social phobia |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20191213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20191213 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210917 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221114 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7189434 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |