JP7189434B2 - 空間制御システム - Google Patents

空間制御システム Download PDF

Info

Publication number
JP7189434B2
JP7189434B2 JP2019003125A JP2019003125A JP7189434B2 JP 7189434 B2 JP7189434 B2 JP 7189434B2 JP 2019003125 A JP2019003125 A JP 2019003125A JP 2019003125 A JP2019003125 A JP 2019003125A JP 7189434 B2 JP7189434 B2 JP 7189434B2
Authority
JP
Japan
Prior art keywords
agent
environment
user
control system
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019003125A
Other languages
English (en)
Other versions
JP2020113025A (ja
Inventor
奈帆子 中山
早苗 香川
数行 佐藤
隆太 上田
英之 高橋
浩 石黒
碧 高間
雄一郎 吉川
泰 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daikin Industries Ltd
Original Assignee
Daikin Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daikin Industries Ltd filed Critical Daikin Industries Ltd
Priority to JP2019003125A priority Critical patent/JP7189434B2/ja
Publication of JP2020113025A publication Critical patent/JP2020113025A/ja
Application granted granted Critical
Publication of JP7189434B2 publication Critical patent/JP7189434B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、空間制御システムに関する。
従来、自分の体験した環境を再現する装置が開発されている。例えば、例えば、特許文献1(特開2003-299013号公報)には、体験者が体験した出来事を臨場感をもって再体験することができる体験情報再現装置が開示されている。
しかしながら、環境に対する感じ方は、ユーザーの感情によって大きく異なる。そのため,ユーザー個々の感情に応じた環境を生成する必要がある。
本開示は、個々の感情に応じた環境の創出に有効な空間制御システムを提供することを目的とする。
第1観点の空調制御システムは、対象空間において一以上の環境が生成可能な環境生成装置と、対象のユーザーに生起させようとする感情に応じた動作を実行するエージェントを実現するアクチュエーターと、エージェントの動作に応じた所定の環境を生成するように環境生成装置を制御する制御装置と、を備える。したがって、ユーザー個々の感情に応じた環境を創出するのに有効である。
第2観点の空調制御システムでは、アクチュエーターは、空気調和装置、ロボット、色彩変化機器、リズム機器、光量変化機器、音声機器、匂い発生機器、プロジェクター、及び表示装置の少なくとも一つである。したがって、アクチュエーターによって実現されるエージェントは、ユーザーの感情に応じて多様な動作を実現できる。
第3観点の空調制御システムでは、エージェントは、生物的要素を有するインターフェースを含む。したがって、エージェントとユーザーとの間の感情的相互作用が促進される。
第4観点の空調制御システムでは、アクチュエーターは、複数の動作を実行するエージェントを実現可能であり、環境生成装置は複数の環境を生成可能であり、複数の動作と複数の環境とは対応付けられ、制御装置は、複数の動作と複数の環境との対応付けに基づき所定の環境を生成するように環境生成装置を制御する。したがって、エージェントは、ユーザーの感情に応じて多様な動作が可能であり、さらにそれに応じた多様な環境の生成が可能となる。
第5観点の空調制御システムは、複数の環境生成装置を備え、制御装置は、エージェントの動作に応じた所定の環境を生成するように複数の環境生成装置を制御する。したがって、ユーザーの感情に応じて効果的な環境の生成が可能となる。
第6観点の空調制御システムでは、制御装置は、エージェントの動作に同期して環境生成装置に所定の環境を生成させた後、環境生成装置による環境の生成を一時的又は間欠的に停止させ、アクチュエーターは、エージェントの動作を一時的又は間欠的に停止させる。したがって、従来の顕在性が高いエージェントを長時間使用した場合の弊害、例えば、ユーザーがその存在に飽きてしまったり、わずらわしさを感じてしまったりするリスクを抑制するため、ユーザーにとって効果的な環境の生成が可能である。
第7観点の空調制御システムでは、制御装置は、エージェントの動作に同期して環境生成装置に所定の環境を生成させている間、アクチュエーターはエージェントの動作を停止させる。
第8観点の空調制御システムでは、環境生成装置は、対象空間内においてユーザーの感覚を刺激する装置である。
第9観点の空調制御システムでは、アクチュエーターは、エージェントの動作によりユーザーの五感のうち少なくとも1つの感覚を喚起させる装置である。
第10観点の空調制御システムでは、環境生成装置は、空気調和装置、音響装置、照明機器、匂い発生機器、又はプロジェクターである。
第11観点の空調制御システムは、入力情報を取得する入力装置を備える。アクチュエーターは、入力情報に基づき、ユーザーに生起させようとする感情に応じた動作を実行するエージェントを実現する。入力情報は、擬態語又は擬音語、或いは擬態語又は擬音語に対応する事象に基づき特定された情報を含む。実際のユーザーの感情に近い情報が得られる可能性が高いため、ユーザーの感情に応じた環境を生成するのに有効である。
空間制御システムの全体構成を説明するための模式図である。 エージェントの外観図である。 エージェントの機能ブロック図である。 制御装置の機能ブロック図である。 制御装置の記憶部に記憶される情報を説明するための模式図である。 空間制御システムの動作を説明するためのフローチャートである。 空間制御システムの動作の説明図である。 空間制御システムの動作の説明図である。 空間制御システムの動作の説明図である。 空気感エージェントの説明図である。 エージェントの上方斜視図である。 エージェントの下方斜視図である。 エージェントの正面図である。 エージェントの動作後の正面図である。 エージェントの平面図である。 エージェントの底面図である。
(1)空間制御システム
(1-1)空間制御システムの概要
近年、人との高い親和性を感じさせる擬人的なロボット等のエージェントが開発されている。しかし、人は、かかるエージェントと長時間接していると、エージェントの存在に馴化が生じ飽きてしまうため、その効果を長時間持続させることが難しい。本開示に係る空間制御システムは、対象空間において、ユーザーと環境生成装置とを媒介するエージェントが環境を制御している印象をユーザーに抱かせることで、さりげなく場の雰囲気を和らげるような空間演出を行う。
なお、本開示におけるエージェントとは、アクチュエーターによって明示的に表現されるものである。エージェントは、その形状や動きに擬人的要素を含む生物的要素を有するインターフェースを含む。生物的要素を有するインターフェースは、物理的な形態(人型、動物、植物型、所定のキャラクターを模した形態等)、人間的又は動物的な声や動作を行うもの、これらの電子的に表示される画像、音声等を含み得る。
エージェントは、ユーザーと環境生成装置を媒介する人工物である。エージェントは、生物的形状なロボットであっても、自然界に多くみられる1/fゆらぎに基づくリズムで提示される光や風等、ユーザーに何らかの形で生物的存在を感じさせる物理的刺激全般でもよい。エージェントは、形状変化や動き等によって生物に類似した顕在性の高い感情表現、例えば楽しい感情を表現する笑顔等を表出することが可能である。結果として、エージェントを媒介した環境制御に対して、ユーザーの高い受容性と親和性を引き出すことが可能となる。したがって、エージェントを実現することにより、ユーザー個々の感情に応じた環境を創出するのに有効である。
アクチュエーターは、例えば、空気調和装置、ロボット、色彩変化機器、リズム機器、光量変化機器、音声機器、匂い発生機器、プロジェクター、及び表示装置等である。アクチュエーターは、推測されたユーザーの感情状態を示す情報を取得する。なお、ユーザーの感情状態の推測は、アクチュエーター自体が推測手段を有していてもよいし、外部装置から感情状態を示す情報を取得してもよい。ユーザーの感情状態は、例えば、エージェントに対するユーザーの働きかけから、推測することも可能である。感情状態の推測手法として、カメラで撮影したユーザーの顔表情からユーザーの感情を推測してもよい。
アクチュエーターがエージェントを実現するとは、アクチュエーターが生物的要素を備えたロボット等の装置自体をエージェントとして動作させること、電子的に表示される画像や音声等によりエージェントを生成し出力すること、温度、湿度、気流等の空調により所定の空気感を形成すること、その他聴覚、嗅覚、視覚、触覚等を刺激する所定の空気感を形成すること(音、匂い、光、触感、風)等を含む。アクチュエーターは、後述する環境生成装置を兼ねていてもよい。
本開示に係る空間制御システムは、空間演出のインターフェースとして強い擬人的な印象を感じさせるエージェントを実現するアクチュエーターと、空間の雰囲気を演出する環境生成装置(例えば、プロジェクター)とを備える。アクチュエーターは、ユーザーの感情状態を示す情報を取得する。例えば、ユーザーが不安な感情を抱いていると推測された場合、アクチュエーターは、同推測に基づきユーザーに生起させようとする感情、例えば安心感を与えることを判断し、その判断に応じた動作を実行する。これにより、エージェントとユーザーとの間に親和性を引き出すことができる。その後、エージェントの動作に連動するように、環境生成装置を動作させることにより、ユーザーの感覚が刺激され、ユーザーとエージェントと環境生成装置との間に更に親和性が引き出される。
その後、エージェントは擬人的な印象を感じさせないように形態を変形(例えば、動きを静止)し、環境生成装置のみが同様の動きを続けてもよい。つまり、ユーザーがエージェントの存在を強く認識・記憶した後、エージェント自体の動作を停止させる等の方法で、エージェントが備える生物的特徴を減弱させてもよい。この処理により、エージェントの記憶をユーザーが保持した状態で環境生成装置の動作のみを継続することが可能である。この結果、馴化が進まない雰囲気の程度までエージェントの存在感をつくることが可能となり、顕在性の高いエージェントが常に環境内に存在する煩わしさを低減可能である。
以下、空間制御システムの実施の形態による構成及び動作について、説明する。
(1-2)空間制御システムの構成
本実施の形態に係る空間制御システム1は、図1に示すように、エージェントロボット50、環境生成装置10、及び制御装置20を備える。空間制御システム1は、対象空間Sに配置され、対象であるユーザー5の感情に応じた環境を生成する。
(1-2-1)エージェントロボット
図2は、エージェントロボット50の外観を示す。同図に示すように、エージェントロボット50は、アクチュエーターの一例であり、丸い壺形状の胴体部501と、胴体部501の中央から突き出た、先の丸い筒状の頭部502とを有する。頭部502の側面には、キャラクターの顔を想起させる目が示される。なお、キャラクターの顔は、内蔵されたプロジェクターで、内部から目を投影して頭部502の側面に映してもよいし、頭部502の側面に直接目を描いても良い。胴体部501の上部には、頭部502を囲むようにベース面503が設けられる。胴体部501には、後述するタッチセンサが配される。エージェントロボット50は、胴体部501にユーザー5が触れることにより、頭部502が胴体部501に引っ込んだり、突き出たりする動作を行う。なお、タッチセンサは頭部502及び/又はベース部503に配されてもよい。また、エージェントロボット50は、動作を行うために、タッチセンサによる操作を介する必要はなく、他のセンサー、カメラ、マイクからの入力に応じて動作を実行してもよい。例えば、エージェントロボット50は、ユーザー5、後述する環境生成装置10により生成される環境、又はその他の装置と同期して動くことができる。
図3を参照して、エージェントロボット50の機能について説明する。エージェントロボット50は、制御部51と、検出部52と、入力部53と、メモリ54と、通信部55と、出力部56と、電源57とを備える。制御部51は、CPUやDSP等のプロセッサである。制御部51は、メモリ54に記憶されているプログラムに従って各機能を実行する。検出部52は、例えば静電容量方式によるタッチセンサであり、ユーザー5よる接触の有無を検知する。タッチセンサは、図2に示すエージェントロボット50の胴体部501に配される。タッチセンサは、頭部502及び/又はベース面503に配されてもよい。なお、タッチセンサの代わりに、押し込みを検知するセンサー(例えば、ポテンションメータや圧力センサボタン)を配してもよい。タッチセンサが接触を検知した場合、制御部51は、例えば、駆動部(図示省略)を制御して図2の頭部502を上下動させ、頭部502を胴体部501内に引っ込んだり突き出たりさせる。タッチセンサは、その他のエージェントロボット50の動作を実行するための操作部を構成してもよい。
入力部53は、例えばマイクやカメラである。エージェントロボット50は、ユーザー5の感情を推測し、ユーザー5に生起させようとする感情を判断するため、入力部53を介して入力情報を取得する。エージェントロボット50は、例えば、マイクによりユーザー5の音声を収音し、カメラによりユーザー5の表情や行動を撮像することにより入力情報を取得する。
通信部55は、後述する制御装置20等の外部の機器との有線又は無線の接続を行う通信インターフェースである。通信部55は、例えば、HDMI(登録商標)端子やUSB端子、Bluetooth(登録商標)、及び/又はWi-Fi等の無線インターフェースである。出力部56は、例えばスピーカーや照明である。スピーカーは、例えば胴体部501の底部504に配され、エージェントロボット50からの音声を出力する。出力部56はまた、プロジェクターを含み、映像を出力するものであってもよい。
エージェントロボット50は、擬態語又は擬音語により入力情報を取得してもよい。例えば、滑らかな感じ(ツルツル)、ざらつく感じ(ザラザラ)、柔らかい感じ(フワフワ)等、触感に関係する擬音語又は擬態語といった必ずしも概念が明確ではない情報が入力されてもよい。この場合、入力手段としては、マイクを介してユーザー5の音声で入力されてもよい。また、エージェントロボット50のタッチセンサにより検知されるユーザー5の指圧等から入力情報を取得してもよい。例えば、強く触る場合はイライラしている、長く触る場合はポジティブな感情である、等の入力情報が取得できる。擬態語又は擬音語は、ユーザー5の感情を推測する入力情報として有効である可能性が高い。よって、擬態語又は擬音語を入力情報として利用することにより、ユーザー5の感情を推測する精度を向上させ、ユーザー5の感情に応じた環境の生成に有効である。
入力情報は、擬態語や擬音語を音声やテキストで直接表現したものに限定されず、例えば、擬態語や擬音語に対応する事象に基づき特定された情報であってもよい。例えば、ユーザー5に自身の感情に近い画像や音声を選択させることが考えられる。或いは、入力情報は、複数の異なる触感を与える接触面を有する装置を用いて、いずれの接触面をユーザー5が選択しどのように接触したか等の情報であってもよい。
エージェントロボット50がユーザー5の感情を推測するための入力情報は、ユーザー5の生体情報(心拍、声、言動、表情認識等)であってもよい。この場合、入力手段としては、生体センサー、カメラ、マイクのいずれか又はこれらの組み合わせ等を用いてもよい。
入力情報は、ユーザー5がなりたい感情を直接示す情報であってもよい。
エージェントロボット50は、上述した入力情報に基づきユーザー5の感情を推測し、ユーザー5に生起させようとする感情を判断し、その判断に応じた動作を実行する。より具体的には、エージェントロボット50は、入力情報から、ユーザー5の感情を推測し、同推測に基づきユーザー5に生起させようとする感情を判断する。例えば、エージェントロボット50は、入力情報から、ユーザー5が不安を感じていると推測する。この場合、エージェントロボット50は、同推測に基づきユーザー5に生起させようとする感情、例えば安心感を与えることを判断し、その判断に応じた動作を実行する。なお、入力情報がユーザー5のなりたい感情を直接示す情報である場合、エージェントロボット50は、その入力情報をユーザー5に生起させようとする感情として判断するようにしてもよい。
エージェントロボット50は実行する動作は、ユーザー5において生起させようとする感情に応じた動きや、光や音の出力等、ユーザー5の感覚を刺激する動作を含む。このため、エージェントロボット50は、多様な特性を含む感覚刺激生成モデルを保持する。エージェントロボット50は、過去に学習したユーザー5の個人特性に合わせた感覚刺激生成モデルを保持してもよい。この感覚刺激生成モデルは、例えば、ユーザー5に生起させようとする感情に応じた動作(エージェントロボット50の頭部502の動作等)、光や音の出力等の動作パターンを含む。エージェントロボット50は、感覚刺激生成モデルに基づき、上述したように頭部502を上下動させる動作や、スピーカーから音を流したり、照明により光を発したりする動作を実行する。このエージェントロボット50の動作パターンは、対象であるユーザー5に認知されるすべての動作を含む。このように、エージェントロボット50は、ユーザー5に生起させようとする感情と動作パターンとを関連付けた情報に基づいて、動作パターンを選択し、実行する。
エージェントロボット50は更に、選択された動作情報或いはユーザー5に生起させようとする感情を特定する情報を制御装置20に通信部55を介して送信する。
ユーザー5の感情に応じたエージェントロボット50の動作により、ユーザー5とエージェントロボット50との間に親和性を引き出すことが可能になり、ユーザー5は、エージェントロボット50に対して強い擬人的な印象や感情を感じ得る。
なお、エージェントロボット50が用いる感覚刺激生成モデルと動作パターンは、エージェントロボット50が保持せず、PCや携帯端末等他の機器から通信部55を介して取得するようにしてもよい。
(1-2-2)環境生成装置
環境生成装置10は、制御装置20による制御により、対象空間Sの環境を生成又は変化させて所定の環境を生成することが可能な任意の機器である。環境生成装置10が環境を生成又は変化させる結果として、対象空間S内のユーザー5の感覚に特定の影響が与えられる。具体的には、環境生成装置10の構成機器として、空気調和装置、音響装置、照明装置、プロジェクター、スピーカー、ロボット、匂い発生機器等が挙げられる。例えば、図1では、環境生成装置10としてのプロジェクターが、対象空間Sの壁面に多数の表示物Rを投影する(プロジェクションマッピング)。表示物Rは、後述するように、エージェントロボット50の動作に同期して変化させる。表示物Rは、点の数・動く方向・大きさ・色彩・形状等を変更することにより、多様な動作を表現する。また、その他の環境生成装置10を同時に作動させ、表示物Rに合わせて、光、色、音、匂い、風等を付与又は変化させてもよい。
環境生成装置10は、エージェントロボット50とは独立しており、エージェントロボット50は、ユーザー5と環境生成装置10とを媒介するものであり、それ自体には環境を制御する機能を有さない。なお、エージェントロボット50と環境生成装置10とは構成機器の一部、もしくは全部を共有しても良い。エージェントロボット50は、環境生成装置10を介して、推測されたユーザーの感情に合った環境を実現させる。
環境生成装置10による環境の生成や変化は、複数のクラスタに分類された環境条件に基づいて行われる。
「環境条件」は、人の身体及び/又は心に特定の影響を与える物理量を特徴付けるパラメータである。例えば、環境条件は、温度、湿度、風、画像、映像、音響、周波数等の物理量で定義されており、これに応じて、環境生成装置10が動作する。そして、環境生成装置10が環境を生成又は変化させることにより、人の感覚に特定の影響が与えられる。
「特定の影響」とは、ユーザー5の五感に所定の感覚が喚起される作用のことをいう。例えば、特定の影響としては、萌彩感(日常生活の忘れがちな感覚に対する感受性を高める感覚)、緊張感(何かしているときに誰かが見ていてやる気がでるような感覚)、包容感(心を包んでくれるような暖かく安らぎに満ちた感覚)、開放感(広々とした場所の中で深呼吸をしているような感覚)、船出感(新しい一歩を踏み出す時に寄り添って応援されるような感覚)、旅情感(少しさみしいけどロマンティックな感覚)、等の感覚が喚起される任意の環境変化が挙げられる。また、特定の影響は、任意の言葉で表現することができ、「楽しい環境」「集中できる環境」「開放感のある環境」といった一般的に観念できる用語で表現されるものでもよいし、「毛布に包まれるような空気が流れる環境」「パーティの空気が流れる環境」「虹色の空気が流れる環境」等感覚的な用語で表現されていてもよい。或いは、特定の影響は、滑らかな感じ(ツルツル)、ざらつく感じ(ザラザラ)、柔らかい感じ(フワフワ)等、触感に関係する擬音語又は擬態語といった必ずしも概念が明確ではない用語で表現されるものでもよい。
特定の影響と環境条件との対応関係は、対象空間S内に存在するユーザー5が抱いた印象等を集計することにより定義できる。
(1-2-3)制御装置
制御装置20は、エージェントロボット50の動作情報又はユーザー5に生起させようとする感情を特定する情報に応じて、環境生成装置10を制御する。制御装置20は、任意のコンピュータにより実現する。制御装置20は、図4に示すように、記憶部21、通信部22、処理部23、制御部24、出力部25を備える。ここでは、コンピュータのCPU、GPU等に記憶装置(ROM、RAM等)に記憶されたプログラムが読み込まれることで、上記各機能が実現される。ただし、これに限らず、制御装置20は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等を用いてハードウェアとして実現されるものでもよい。
エージェントロボット50の動作情報は、制御装置20が予めエージェントロボット50の動作パターンと、後述するクラスタの特徴とを対応付けて保持しておき、その動作パターンに対応するクラスタの特徴を選択する。或いは、制御装置20は、エージェントロボット50においてユーザー5に生起させようとする感情を示す情報を直接取得し、同情報に基づいてクラスタの特徴を選択してもよい。選択されたクラスタの特徴に対応する環境条件には、少なくともエージェントロボット50の動作に同期する画像、映像、音響、照明等の設定が含まれる。これらの情報は、テーブル表のように直接的に対応付けされた情報に限定されず、間接的な対応関係に基づいて対応付けられた情報であってもよい。
記憶部21は、各種情報を記憶するものであり、メモリ及びハードディスク等の任意の記憶装置により実現される。ここでは、記憶部21は、クラスタの特徴と環境条件とを関連付けて記憶する。詳しくは、クラスタは、n次元(nは環境条件のパラメータの数)の情報で表現される空間における環境条件の集合からなる。或いは、クラスタは、n次元の情報で表現される空間における環境条件を含む領域からなる。そして、各クラスタには固有の特徴が設定されている。例えば、記憶部21には、図5に示すように、n次元の情報として、温度、湿度、風、画像、映像、音響、周波数等の情報が記憶される。これらの値が所定のクラスタリングの手法により、一のクラスタにグループ化され、クラスタの特徴が設定される。また、ここでいう、クラスタの特徴とは、上述した特定の影響に対応するものである。図5に示す例では、クラスタ1の特徴として「楽しい環境」、クラスタ2の特徴として「集中できる環境」、クラスタ3の特徴として「開放感のある環境」等が設定されている。また、各クラスタには、複数の環境条件が属している。図5に示す例では、クラスタ1に環境条件1~3が属し、クラスタ2に環境条件4~6が属し、クラスタ3に環境条件7~9が属している。また、クラスタをさらに細分化や、さらに所定の次元の特徴を加えることにより新たなクラスタを定義することもできる。また、図5に示す例では、新たな環境条件10が追加され、クラスタ3の環境条件7~9のうち、環境条件7、8と新たに追加された環境条件10とで、新たなクラスタが生成され、例えば「明るい環境」等の新たな特徴のタグが付けられてもよい。
通信部22は、エージェントロボット50との有線又は無線の接続を行う通信インターフェースである。通信部22を介して、エージェントロボット50からエージェントロボット50の動作情報等を取得する。
処理部23は、各種情報処理を実行するものであり、CPUやGPU等のプロセッサ及びメモリにより実現される。具体的には、処理部23は、エージェントロボット50の動作情報やユーザー5に生起させようとする感情を特定する情報に基づき、クラスタに属する環境条件のうち、一の環境条件を選択する機能を有する。より詳しくは、処理部23は、所定の条件で、同一クラスタ内に属する他の環境条件を選択する。また、処理部23は、所定の条件を満たすと、現在の環境条件を、同一クラスタ内の他の環境条件に変更するようにしてもよい。所定の条件とは、例えば、所定時間が経過した状態や、対象空間S内のユーザー5から所定の反応が得られなかった状態をいう。
制御部24は、環境生成装置10を制御するものである。具体的に、制御部24は、上述したクラスタの特徴に基づいて、環境生成装置10を制御するための環境条件を記憶部21から抽出し、これに基づいて環境生成装置10を制御する。
出力部25は、環境生成装置10を制御するための制御情報を出力先(例えば、入力端末等)に応じて出力する。
(1-3)空間制御システムの動作
図6は、本実施形態に係る空間制御システム1の動作を説明するためのフローチャートである。
まず、エージェントロボット50がユーザー5に生起させようとする感情を推測する(S101)。エージェントロボット50は、上述した入力手段を通じて取得された入力情報に基づきユーザー5に生起させようとする感情を推測する。
エージェントロボット50は、推測したユーザー5の感情から感覚刺激生成モデルに基づきユーザー5に生起させようとする感情を選択し、同感情に応じた動作を開始する(S102)。例えば、ユーザー5に生起させようとする感情が楽しい感情であるとすると、明るい音楽に合わせて頭部502を上下に動かしたり、明るい色の光を発したり等、する。このような動作が持続することにより、図7Aに示すように、ユーザー5とエージェントロボット50との間の相互作用から、両者間に親和性を引き出すことが期待できる。
エージェントロボット50は、その動作情報又はユーザー5に生起させようとする感情を特定する情報(以下、動作情報等とする)を制御装置20に送信する(S103)。制御装置20は、受信した動作情報等に応じた、クラスタの特徴を選択する(S104)。例えば、受信した動作情報等が、「楽しい環境」に対応するものであるとする。制御装置20は、図5に示す情報から、「楽しい環境」(クラスタ1)を選択する。クラスタ1には「環境条件1」「環境条件2」「環境条件3」が属しており、これらのうちから一の環境条件が処理部23によりランダムに選択される。
制御装置20は、選択された環境条件に応じて環境生成装置10を制御する(S105)。具体的には、エージェントロボット50の動作情報等に応じて選択された「楽しい環境」の環境条件1~3の「画像1」は、図7Bに示すように、複数の丸で描いた表示物Rが、対象空間Sの壁Wに表示され、各表示物Rが上下に動く。この動作は、エージェントロボット50の動作と同期したような動作である。ユーザー5は、先のエージェントロボット50との相互作用から、表示物Rとエージェントロボット50との親和性を感じることが期待できる。
エージェントロボット50は、所定時間動作後、ステップS102で開始した動作を停止する(S106)。なお、動作の停止は、上述した動作を全て停止させてもよいし、頭部502のみを停止させる等、一部の動きを停止する場合も含む。停止は、対象者であるユーザー5に認知されにくくする状態であればよい。これにより、エージェントロボット50により実現されるエージェントの生物的特徴を減弱させることが可能となる。図7Cに示すように、エージェントロボット50が停止していても、ユーザー5とエージェントロボット50との親和性から、ユーザー5にとってエージェントロボット50により実現されるエージェントが環境を制御している印象を抱かせることが期待できる。
このように、ユーザー5がエージェントロボット50により実現されるエージェントの存在を強く認識・記憶した後、エージェントロボット50の動作を停止させる等の方法で、エージェントの生物的特徴を減弱させことができる。この処理により、エージェントの記憶をユーザー5が保持した状態で環境生成装置10の動作のみを継続することが可能である。その結果,例えば,顕在性の高いエージェントが常に環境内に存在する煩わしさを低減することができる。
エージェントロボット50は、何らかのユーザー5の感情の変化をもたらすような反応、例えば上述したようなエージェントロボット50との接触、ユーザー5からの発話、生体情報等を取得し(S107)、変化があった場合、或いは所定時間経過した場合は、ステップS101に戻り、ユーザー5に生起させようとする感情を再び推測する。
以上のように、エージェントロボット50とユーザー5とが双方向に作用することで、エージェントロボット50がユーザー5の状態や志向性に合わせて感覚刺激を選択する一方で、ユーザー5も必要とする感覚刺激を選ぶことができる。
なお、エージェントロボット50は、ステップS102の動作中においても、ユーザー5の反応を取得し、ユーザー5の感情に変化がある場合は、動作パターンを変更してもよい。
また、エージェントロボット50は、ステップS106においては、停止することに限定されず、例えば、ゆっくりとした動作を継続させてもよいし、動作と静止を繰り返すような動作(例えば、緩急動作)、その他一時的又は間欠的な動作の停止を実行してもよい。同様に、ステップS102においても、動作と静止を繰り返すような動作であってもよい。
エージェントロボット50により実現されるエージェントに対するユーザー5の記憶が薄れた場合は,エージェントロボット50の動作を再開してユーザー5と相互作用を再開することにより、エージェント自体が備える生物的特徴を再び増強させてもよい。ユーザー5がどれだけエージェントの存在を記憶しているかは、行動や生理状態から推定されたユーザーの環境制御に対する受容性や親和性から判断してもよい。
(1-4)特徴
本実施の形態による空間制御システム1は、環境生成装置10と、エージェントロボット50と、制御装置20とを備える。環境生成装置10は、対象空間Sにおいて一以上の環境が生成可能である。エージェントロボット50は、対象のユーザー5に生起させようとする感情に応じた動作を実行するエージェントを実現する。制御装置20は、エージェントロボット50の動作に応じた所定の環境を生成するように環境生成装置10を制御する。
ロボット等により実現されるエージェントは、場の雰囲気を和らげる等の能動的な空間づくりを演出することが可能である。しかし、人は、かかるエージェントと長時間接していると、エージェントの存在に馴化が生じる(飽きる)ため、その効果を長時間持続させることが難しい。本開示に係る空間制御システム1は、エージェントロボット50により実現されるエージェントが、環境を制御している印象をユーザー5に抱かせる演出を表現することができる。例えばエージェントロボット50の動作を停止してエージェントの実体を消去する動作も実行することにより、馴化が進まない雰囲気の程度までエージェントの存在感をつくることが可能となる。このような機能により、エージェントがもたらす能動的な効果を長時間持続させることが可能になる。このようなエージェントが生み出す雰囲気は必ずしも明示的に作り出されるのではなく、人の無意識的な部分で持続させることにより、会議や職場環境、ホスピス、レストラン、家庭等、様々な場面における雰囲気づくりに有益となる。
(1-5)変形例
(1-5-1)変形例1
本開示に空間制御システム1は、例えば空調システムに適用可能である。この場合、空気調和装置のインターフェースとして視聴覚を通じてユーザー5に認知されるエージェントを設ける。インターフェースは、ロボットであってもよいし、音声や表示装置に表示されるキャラクターであってもよい。例えば、エージェントが環境を制御している印象をユーザー5に抱かせる演出を行い、その後ユーザー5が空気感をコントロールする。このような形態で空調をコントロールすることで、温度、湿度、気流等を調整する、という空気調和装置の役割に追加して、エージェントが部屋の雰囲気を生成するという感覚をユーザー5に付与することが期待できる。
(1-5-2)変形例2
上記説明では、エージェントロボット50がユーザー5の感情を推測するための入力手段として、キーボード、マウス、タッチパネル、触感デバイス等の入力装置を有する任意の端末装置を用いてもよい。この場合、端末装置30は有線又は無線でエージェントロボット50に接続され、通信部55を介してユーザー5の感情を推測するために必要な情報を送信する。また、この場合、ユーザー5がなりたい感情を音声やテキストで積極的に入力するようにしてもよい。或いは、ユーザー5は、なりたい感情を擬態語又は擬音語等で表現したものを音声やテキストで入力してもよい。
また、ユーザー5の感情を推測する手段は外部に設けられ、エージェントロボット50等のアクチュエーターは、同手段よりユーザー5の感情状態を示す情報を取得してもよい。
(1-5-3)変形例3
上記説明では、環境生成装置10と制御装置20とは別の装置としていたが、これらは同一の装置に一体として組み込まれるものでもよい。
(1-5-4)変形例4
上記説明では、エージェントは擬人的なエージェントロボット50により実現される例に挙げていたが、これに限定されない。エージェントは、空気調和装置、プロジェクター、ロボット、色彩変化機器、リズム機器、光量変化機器、音声機器、匂い発生機器、及び表示装置等のアクチュエーターによって実現され、人が親和性を感じられる生物的要素をもつ存在であればよい。エージェントを構成する要素は、その動作によりユーザー5の視覚、聴覚、触覚、嗅覚、味覚のうち少なくとも1つの感覚を喚起する装置により実現されるものであればよい。
上記アクチュエーターは、環境生成装置10と別の装置である必要はなく、環境生成装置10の一部であってもよい。また、アクチュエーターは、制御装置20と別の装置である必要はなく、制御装置20の一部であってもよく、或いは制御装置20を含んでいてもよい。
(2)空間制御システムにおける空気感エージェントの創成
以下、本開示の空間制御システムにおけるエージェントの意義や機能について説明する。
(2-1)エージェントのミニマルデザイン
ミニマルデザインとは、ある対象の存在をユーザーの心の中に成り立たせる為に必要な最小の感覚刺激を指す。このような最小限の刺激だけを提示することで、ユーザーが対象について自由に想像可能な余白が生まれる。このようなユーザーの想像力を適切に喚起するミニマルデザインをうまくエージェント設計に取り入れることで、設計者の存在をユーザーに感じさせにくくなり、エージェントの“あざとさ”を大幅に軽減できると期待できる。
一方で、ユーザーがエージェントに対して持続的に高い想像力を働かせ、その存在感を感じ続けることは非常に困難であり、エージェントの最低限の存在感を常にユーザーに感じさせ続けるための演出も同時に必要である。例えば、トップダウンにその存在を示唆するだけで、そこに実際のエージェント由来の感覚入力が存在しなくても、人の脳はそこにエージェントがいるかのような活動を示すことが知られている。またリズムや運動随伴性等感覚非依存の物理特性をうまく利用することで、実体が無いエージェントの存在感を高めることも知られている。これらの演出方法を駆使して、エージェントの存在感を持続的に安定化させる工夫についても考える必要がある。
(2-2)身体感覚にもとづく心理サポート
ミニマルデザインにもとづくエージェントがユーザーに働きかける方法として、身体感覚を利用することが考えられる。人の認知や感情は、それとは直接的には関係ない感覚刺激の提示によって変容することが知られている。例えば、持っている物の重さで意思決定の質が変化する、周辺視に提示する視覚的フローが我々の行動や感情にも影響を与える、柔らかい触覚を感じさせることで疑心暗鬼が低減する、等の身体感覚と認知や感情の関係に言及した数多くの知見が知られている。身体感覚が人の認知や思考に影響を与えるプロセスは身体性認知と呼ばれる。発明者らは、このような感覚が認知や態度に与える潜在的影響をうまく利用することで、バックグラウンドでの心理サポートをユーザーが取り組んでいる主作業を邪魔しないで提供可能になるのではないかと考えた。具体的にはエージェントが様々な感覚刺激を生成することにより、ユーザーに心理サポート的な働きかけを行うというシステムデザインである。
一方、このような身体性認知に関する心理学的知見の再現性が著しく低いとの報告もある。その理由として、本来的には身体感覚を単一の感覚のみに集約することが非常に難しいのにも関わらず、現状では少数サンプルで行った限定された状況における実験室的知見を“言語的説明”により過剰汎化している報告が多いことが挙げられる。このような過剰汎化を避けるためには、様々な多感覚刺激が我々の認知や感情に与える影響について精査した大量のデータを集め、その中から集団で普遍的に共有されている感覚と認知や感情との間の統計的関係を機械学習する。ことで、認知や感情へ効果的に影響を与える感覚刺激の生成モデルを抽出していく必要がある。
(2-3)ユーザーとエージェントの相互作用的なループの形成
前述のように言語的説明に依らない生成モデルを用いてユーザーの心理サポートを行う場合、どのようにユーザーの状況に適合した生成モデルを適切に選択するのか、という問題が生じる。その一つの方法として、様々なセンサーでユーザーの行動・生理データを収集し、そこから推定されたユーザーの内部状態に対して適切なサポートを自動的に提供するようなシステムが知られている。しかし、人の心というものは抽象的であり個人差も大きいため、どのようなサポートが必要な状況なのかを客観的に外部から推測することは非常に困難である。またこのような一方向的サポートは、人の心理的リアクタンスを強め、システムに対する反発を生じさせる恐れもある。
そこでエージェントの中に様々な特性の感覚刺激の生成モデルを用意しておき、過去に学習したユーザーの個人特性から推測される生成モデルの候補をエージェントが刺激提示により推薦する一方で、ユーザーも必要としているパターンをエージェントに働きかけながら自ら選び取る、といったような、ユーザーの自発性を加味した双方向的なループ構造のシステムデザインが必要になる。このようなユーザーとシステムの双方向的関係性は、特にユーザーがシステムを機械ではなくエージェントであると認識することで強まる。従って、システム全体をエージェント化することは、このようなループ構造をスムーズに形成する上でも重要である。さらにこのようなループ構造を形成するためには、ユーザーがタッチ等により直感的にエージェントに働きかけを行うことが可能な触覚的インターフェースの存在も重要である。
(2-4)集団でエージェントを共有するエコシステムの構築
これまで述べてきたような寄り添いエージェントを設計するためには、エージェントの内部に様々な心理サポートを行うための感覚刺激の生成モデルを保持させておく必要がある。また、このような生成モデルの個数が有限であると、やがてユーザーはエージェントの振る舞いに“あざとさ”を感じてしまったり、飽きてしまったりする恐れがある。従って、エージェントには逐次、新しい生成モデルを獲得させていく必要がある。近年、人工生命等の分野において、新しいパターンを自己組織的にプログラムに生成させる試みがなされている。一方で、このような“機械に任せる”パターン生成の方法のみでは、既存のものと類似したパターンが生まれやすかったり、人の感性と大きく乖離した無意味なパターンが生まれやすくなったり等、意味のある新しい生成モデルを安定的に増やしていくことが難しい。
そこで、“今はこのような感覚刺激を受け取りたい気分である”ということを、ユーザー自身が自ら感覚刺激を創り出すことで表現していくような手段を用意し、ユーザーが作成した感覚刺激を常にネットワークで共有されたデーターベースに貯蓄、新しい生成モデルの獲得に利用していくデザインが必要になる。しかし、専門性の低い一般ユーザーに複雑な感覚刺激を一から作成することを要求するシステムは現実的ではない。そこで全体で共通の感覚刺激のプロトコルを設定した上で、感覚刺激を作成する手段として、非常に緻密に感覚刺激を作成することが可能な本格的なコンピュータ上におけるビルダーアプリケーションから、それを子供や高齢者でも操作可能なタッチパネル上でのGUIに簡略化したもの、さらに直感的に触ることで無意識的に感覚刺激を生成可能な触感インターフェースまで、幅広い種類を用意することで、ユーザーが創造活動に参入する障壁を極限まで下げる。そして多様なユーザーがネットワークを介して寄り添いエージェント(生成モデル群)を共有したエコシステムを構築することで、持続的にエージェントの内部に生成モデルを増やしていくことを試みる。理想的には、ユーザーが自ら創作活動を行っている自覚が無い状態で、実はユーザーにより新しい感覚刺激がエコシステムの中で生み出され、それをデーターベースに機械的に吸い上げ貯蔵されていくような形が望ましい。このようなエージェントを集団で共有するデザインにおいて、見知らぬ他人が作成した新しいタイプの感覚刺激にエージェントを通じて接することで、ユーザーの中に潜在的にある創造性が活性化され、そこにまた新しい創造の種が生まれるというセレンディピティの連鎖が生じていく開放性が高いエコシステムを構築することができれば、エージェントは持続的に新しい生成モデルを獲得し続けることが可能になる。
(2-5)提案する「空気感エージェント」の概要
“会議が難航して空気が澱む”や、逆に“空気が赤ちゃんによって和む”、といったように、しばしば物理的な空気の特性を超えた形でより主観的に空気の特性を感じることがある。また森の中の日だまりの中に何か大きなものに抱擁されるような暖かさを感じたり、夜中の墓地で誰もいない暗闇から視線を感じたりといったように、しばしば空気の中に見えないエージェントの気配を感じることもある。このような空気に感じる我々の主観的印象を“空気感”という言葉で定義し、このような空気感自体を上述した原理に従ってエージェント化することを試みる。
具体的には、空気調和装置に加えて様々な種類の感覚刺激を部屋全体に提示することで様々な空気感を生成することが可能な部屋とエージェントの存在感を安定化させるための空気感ロボットを用いて空気感エージェントの実装を試みる。
図8に空気感エージェントの全体像を示す。空気感エージェントが生成する感覚刺激として空気調和装置による物理的な空気の温度、湿度、風向や風量等に加えて、プロジェクターやスピーカー、匂い発生機器によって部屋全体に提示する視覚や聴覚、嗅覚等の多感覚刺激を想定している。人の空気の感じ方やそれに対する代謝活動は、直接的に空気とは関係ない視聴覚刺激によって影響を受けることがこれまでの研究で報告されており、空気調和装置に連動する形で多感覚の刺激提示装置を動かすことにより、従来の空気調和装置では生み出せなかった様々な空気感を生成可能になる。そしてこのような空気感を通じて、部屋の中にいるユーザーに対してバックグラウンドで働きかけ続けることで、様々な種類の心理サポートの提供が実現できると期待している。またユーザーは単に受動的に空気感による心理サポートを享受するだけではなく、様々なレベルで用意された空気感ビルダーによって自ら望む空気感を作成することも可能である。
本システムにおいて、様々な多感覚な感覚情報で構成される空気感は、触覚表現で記述される低次元空間に写像・保持される。触感は他の感覚と比較して、その感じ方に個体間で個人差が少なく、実際には直接触れない空気感を疑似的に触覚にもとづいた尺度により記述することで、複数のユーザーでエージェントが生み出す空気感を共有しやすくする。そしてこの触感的空間の中で、ユーザーによって作成され蓄積された様々な感覚刺激のクラスタリングを行い、それに基づいて空気感を生起する為のミニマルな感覚刺激の生成モデルをエージェントに獲得させていく。
本システムにおいて、空気感エージェントが過去の来歴に応じて統計的に空気感を生み出す生成モデルを選択するだけではなく、様々な触感を伴ったセンサーを複合的に組み合わせて作成した触感インターフェースを“触る”ことでユーザーが望む空気感を自発的に選んでいくという双方向的なループ構造をユーザーと空気感エージェントの間に構築する。このようなループ構造を形成することで、たとえエージェントがユーザーの望む心理サポートを正確に推測できなくても、ユーザーが求める空気感にたどり着きやすくなる。
ユーザーと空気感エージェントの間の双方向的なループ構造を安定的に確立するためには、場に空気感をもたらしている原因がエージェントである、とユーザーが認識をする必要がある。このような認識をトップダウンで強化するために空気感ロボットを用意する。基本的に空気感エージェントは“あざとさ”をユーザーに感じさせないために、バックグラウンドでミニマルな感覚刺激を提示し続けるのみであるが、このようなミニマルな感覚刺激と連動して実体がある空気感ロボットを適宜動作させることで、空気感を生み出しているのはエージェントである、というユーザーの認識を持続させ続ける(例えば、図7B)。ただユーザーと空気感エージェントの間に双方向的なループ構造が十分に確立されている場合は、実体のあるロボットは“あざとさ”を感じさせる要因になるため、活動を静止させる(例えば、図7C)。
(3)エージェントロボットのデザイン
図9A~図9Eは、上述したエージェントロボットのデザインの一例を示す。図9Aは、エージェントロボットの上方斜視図である。図9Bは、エージェントロボットの下方斜視図である。図9Cは、エージェントロボットの正面図である。図9Dは、エージェントロボットの動作後の状態(図2に示す頭部502を引っ込めた状態)を正面から示す図である。図9Eは、エージェントロボットの平面図である。図9Fは、エージェントロボットの底面図である。
この機器は、内部にコンピュータ装置が備えられてもよく、ユーザーの入力動作、或いはユーザー動作に基づき得た情報から、空間においてユーザーの感情に沿った環境を生成するための動作や出力を実行する。中央から突き出た頭部をユーザーが触れることにより、頭部が図9Dの位置まで下降したり、再び上昇したりする。頭部は連続して上下動を行う場合もある。
(4)他の実施形態
以上、実施形態を説明したが、特許請求の範囲の趣旨及び範囲から逸脱することなく、形態や詳細の多様な変更が可能なことが理解されるであろう。
すなわち、本開示は、上記各実施形態そのままに限定されるものではない。本開示は、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できるものである。また、本開示は、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより種々の開示を形成できるものである。例えば、実施形態に示される全構成要素から幾つかの構成要素は削除してもよいものである。さらに、異なる実施形態に構成要素を適宜組み合わせてもよいものである。
1 :空間制御システム
10 :環境生成装置
20 :制御装置
21 :記憶部
22 :通信部
23 :処理部
24 :制御部
25 :出力部
30 :端末装置
50 :エージェントロボット
51 :制御部
52 :検出部
53 :入力部
54 :メモリ
55 :通信部
56 :出力部
57 :電源
501 :胴体部
502 :頭部
503 :ベース面
504 :底部
R :表示物
S :対象空間
W :壁
特開2003-299013号公報

Claims (10)

  1. 対象空間において一以上の環境が生成可能な環境生成装置と、
    対象のユーザーに生起させようとする感情に応じた動作を実行するエージェントロボットと、
    前記エージェントロボットの動作に応じた所定の環境を生成するように前記環境生成装置を制御する制御装置と、を備え、
    前記エージェントロボットの動作は、生起させようとする感情に応じた動作を学習した感覚刺激生成モデルに基づいて実行され、
    前記感覚刺激生成モデルは、対象のユーザーの個人特性に合わせて学習されたものである、
    空間制御システム。
  2. 前記エージェントロボットは、生物的要素を有するインターフェースを含む、
    請求項1に記載の空間制御システム。
  3. 前記エージェントロボットは、複数の動作を実行可能であり、
    前記環境生成装置は複数の環境を生成可能であり、
    前記複数の動作と前記複数の環境とは対応付けられ、
    前記制御装置は、前記複数の動作と前記複数の環境との対応付けに基づき前記所定の環境を生成するように前記環境生成装置を制御する、
    請求項1又は2に記載の空間制御システム。
  4. 複数の前記環境生成装置を備え、
    前記制御装置は、前記エージェントロボットの動作に応じた前記所定の環境を生成するように前記複数の環境生成装置を制御する、
    請求項1から3のいずれかに記載の空間制御システム。
  5. 前記制御装置は、前記エージェントロボットの動作に同期して前記環境生成装置に前記所定の環境を生成させた後、前記環境生成装置による前記環境の生成を一時的又は間欠的に停止させ
    前記エージェントロボットは、前記制御装置が前記エージェントロボットの動作に同期して前記環境生成装置に前記所定の環境を生成させた後、動作を一時的又は間欠的に停止させる、
    請求項1から4のいずれかに記載の空間制御システム。
  6. 前記制御装置が、前記エージェントロボットの動作に同期して前記環境生成装置に前記所定の環境を生成させている間、前記エージェントロボットは、動作を停止させる、
    請求項1から5のいずれかに記載の空間制御システム。
  7. 前記環境生成装置は、前記対象空間内においてユーザーの感覚を刺激する装置である、
    請求項1から6のいずれかに記載の空間制御システム。
  8. 前記エージェントロボットは、動作によりユーザーの五感のうち少なくとも1つの感覚を喚起させる、
    請求項1から7のいずれかに記載の空間制御システム。
  9. 前記環境生成装置は、空気調和装置、音響装置、照明装置、匂い発生機器、又はプロジェクターである、
    請求項1から8のいずれかに記載の空間制御システム。
  10. 入力情報を取得する入力装置を備え、
    前記エージェントロボットは、前記入力情報に基づき、前記ユーザーに生起させようとする感情に応じた動作を実行し、
    前記入力情報は、擬態語又は擬音語、或いは擬態語又は擬音語に対応する事象に基づき特定された情報を含む、
    請求項1から9のいずれかに記載の空間制御システム。
JP2019003125A 2019-01-11 2019-01-11 空間制御システム Active JP7189434B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019003125A JP7189434B2 (ja) 2019-01-11 2019-01-11 空間制御システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019003125A JP7189434B2 (ja) 2019-01-11 2019-01-11 空間制御システム

Publications (2)

Publication Number Publication Date
JP2020113025A JP2020113025A (ja) 2020-07-27
JP7189434B2 true JP7189434B2 (ja) 2022-12-14

Family

ID=71667065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019003125A Active JP7189434B2 (ja) 2019-01-11 2019-01-11 空間制御システム

Country Status (1)

Country Link
JP (1) JP7189434B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7185968B1 (ja) 2022-04-28 2022-12-08 AI Infinity 株式会社 振動情報出力システム、及び振動情報出力プログラム

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000005317A (ja) 1998-06-22 2000-01-11 Seiko Epson Corp 生体の状態制御支援装置及びロボット制御装置
JP2002041276A (ja) 2000-07-24 2002-02-08 Sony Corp 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体
JP2005327096A (ja) 2004-05-14 2005-11-24 Nippon Telegr & Teleph Corp <Ntt> コミュニケーション支援方法、コミュニケーション支援装置及びコミュニケーションの支援を行うためのプログラム並びに当該プログラムを記録した記録媒体
JP2006320621A (ja) 2005-05-20 2006-11-30 Sharp Corp ストレスケア装置およびそれを備えてなる空調装置ならびにロボット装置
JP2010022555A (ja) 2008-07-18 2010-02-04 Sharp Corp 呼気センサを用いた刺激コントロールシステム
JP2011215462A (ja) 2010-04-01 2011-10-27 Keio Gijuku 嗅覚情報制御装置、嗅覚情報制御方法及び香り発生システム
JP2014075045A (ja) 2012-10-04 2014-04-24 Sharp Corp 制御装置、制御装置の制御方法、被制御装置、サーバ、制御プログラム、および記録媒体
WO2014192457A1 (ja) 2013-05-30 2014-12-04 ソニー株式会社 クライアント装置、制御方法、システム、およびプログラム
JP2016135530A (ja) 2015-01-23 2016-07-28 シャープ株式会社 ロボット制御装置及びロボット
WO2017051577A1 (ja) 2015-09-25 2017-03-30 ソニー株式会社 感情誘導システム、および感情誘導方法
JP2018022331A (ja) 2016-08-03 2018-02-08 国立大学法人電気通信大学 音象徴語・パーソナリティ情報提供装置、音象徴語・パーソナリティ情報提供方法および音象徴語・パーソナリティ情報提供プログラム
WO2018088319A1 (ja) 2016-11-11 2018-05-17 ソニーモバイルコミュニケーションズ株式会社 再生端末及び再生方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000005317A (ja) 1998-06-22 2000-01-11 Seiko Epson Corp 生体の状態制御支援装置及びロボット制御装置
JP2002041276A (ja) 2000-07-24 2002-02-08 Sony Corp 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体
JP2005327096A (ja) 2004-05-14 2005-11-24 Nippon Telegr & Teleph Corp <Ntt> コミュニケーション支援方法、コミュニケーション支援装置及びコミュニケーションの支援を行うためのプログラム並びに当該プログラムを記録した記録媒体
JP2006320621A (ja) 2005-05-20 2006-11-30 Sharp Corp ストレスケア装置およびそれを備えてなる空調装置ならびにロボット装置
JP2010022555A (ja) 2008-07-18 2010-02-04 Sharp Corp 呼気センサを用いた刺激コントロールシステム
JP2011215462A (ja) 2010-04-01 2011-10-27 Keio Gijuku 嗅覚情報制御装置、嗅覚情報制御方法及び香り発生システム
JP2014075045A (ja) 2012-10-04 2014-04-24 Sharp Corp 制御装置、制御装置の制御方法、被制御装置、サーバ、制御プログラム、および記録媒体
WO2014192457A1 (ja) 2013-05-30 2014-12-04 ソニー株式会社 クライアント装置、制御方法、システム、およびプログラム
JP2016135530A (ja) 2015-01-23 2016-07-28 シャープ株式会社 ロボット制御装置及びロボット
WO2017051577A1 (ja) 2015-09-25 2017-03-30 ソニー株式会社 感情誘導システム、および感情誘導方法
JP2018022331A (ja) 2016-08-03 2018-02-08 国立大学法人電気通信大学 音象徴語・パーソナリティ情報提供装置、音象徴語・パーソナリティ情報提供方法および音象徴語・パーソナリティ情報提供プログラム
WO2018088319A1 (ja) 2016-11-11 2018-05-17 ソニーモバイルコミュニケーションズ株式会社 再生端末及び再生方法

Also Published As

Publication number Publication date
JP2020113025A (ja) 2020-07-27

Similar Documents

Publication Publication Date Title
Salichs et al. Mini: a new social robot for the elderly
US11815951B2 (en) System and method for enhanced training using a virtual reality environment and bio-signal data
US8751042B2 (en) Methods of robot behavior generation and robots utilizing the same
Parés et al. Promotion of creative activity in children with severe autism through visuals in an interactive multisensory environment
Gervais et al. Tobe: Tangible out-of-body experience
Wilson Psychology and performing arts
JP7002143B2 (ja) コミュニケーション解析装置およびそれに使用される測定・フィードバック装置、インタラクション装置
US20090319459A1 (en) Physically-animated Visual Display
US10783800B1 (en) Sensor-based complexity modulation for therapeutic computer-simulations
Schnädelbach et al. ExoBuilding: breathing life into architecture
JP7066115B2 (ja) パブリックスピーキング支援装置、及びプログラム
JP7189434B2 (ja) 空間制御システム
Parés et al. MEDIATE: An interactive multisensory environment for children with severe autism and no verbal communication
WO2019215983A1 (ja) 情報処理システム、情報処理方法、および記録媒体
WO2020261977A1 (ja) 空間提案システム、及び、空間提案方法
JP7296626B2 (ja) 情報処理装置及びプログラム
Bourahmoune et al. Owro: A Novel Robot For Sitting Posture Training Based On Adaptive Human Robot Interaction
Di Dio et al. Moving toward emotions in the aesthetic experience
JP6631746B1 (ja) クラスタ分類装置、環境生成装置及び環境生成システム
Tajadura-Jiménez Embodied psychoacoustics: Spatial and multisensory determinants of auditory-induced emotion
Turgay et al. The role of the senses in children’s perception of space
Richard Episodes of depression: Existential feelings and embodiment in SHARP OBJECTS
Kruijff Unconventional 3D user interfaces for virtual environments
JP6611538B2 (ja) 生体信号出力装置
Grillon Simulating interactions with virtual characters for the treatment of social phobia

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20191213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221114

R151 Written notification of patent or utility model registration

Ref document number: 7189434

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151