JP2018143639A - インタラクションを用いたユーザの状態推定装置及びその方法 - Google Patents
インタラクションを用いたユーザの状態推定装置及びその方法 Download PDFInfo
- Publication number
- JP2018143639A JP2018143639A JP2017043804A JP2017043804A JP2018143639A JP 2018143639 A JP2018143639 A JP 2018143639A JP 2017043804 A JP2017043804 A JP 2017043804A JP 2017043804 A JP2017043804 A JP 2017043804A JP 2018143639 A JP2018143639 A JP 2018143639A
- Authority
- JP
- Japan
- Prior art keywords
- user
- interaction
- impression
- state
- state estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Medical Treatment And Welfare Office Work (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
【課題】ユーザの状態を推定するのに必要な情報の制約を受けず、ユーザが無意識下にあるときでもユーザの状態を適切に推定し、漏れが生じることなくユーザの状態を適切に推定する。【解決手段】インタラクションを用いてユーザの状態を推定する装置1は、ユーザの視覚、聴覚、触覚及び嗅覚のうち少なくとも一つ以上の感覚を刺激するユーザへの働きかけを第1インタラクションとして表出するインタラクション表出部2と、前記第1インタラクションに対するユーザの反応レベルを検出し、当該第1インタラクションに対してユーザが抱いた印象を検出する印象検出部3と、印象検出部による検出結果を用いてユーザの状態を推定する状態推定部4と、を備える。【選択図】図1
Description
本発明は、インタラクションを用いたユーザの状態推定装置及びその方法に関する。
例えば特許文献1には、コミュニケーションロボットにおいて、ユーザが触っている場所及び強度を検出し、ユーザの状態を積極的、消極的、荒っぽい、自由奔放及び不明の何れかに判別し、ユーザの状態に応じたインタラクションを表出する技術が開示されている。
しかしながら、特許文献1の技術は、ユーザがコミュニケーションロボットに触れたことを検出する構成が前提であるので、ユーザが触れたことを検出する構成を持たない装置に適用することができない。又、ユーザが無意識下にあるときのユーザの状態を推定することができず、例えば意思疎通が容易でない精神患者や赤ちゃん等の無意識下での状態を推定することができない。更に、ユーザの状態を積極的、消極的、荒っぽい、自由奔放及び不明の何れかにしか判別することができず、状態の推定に漏れが生じる可能性がある。
本発明は、上記した事情に鑑みてなされたものであり、その目的は、ユーザの状態を推定するのに必要な情報の制約を受けず、ユーザが無意識下にあるときでもユーザの状態を適切に推定することができ、更に、漏れが生じることなくユーザの状態を適切に推定することができるインタラクションを用いたユーザの状態推定装置及びその方法を提供することにある。
請求項1に記載した発明によれば、インタラクション表出部(2)は、ユーザの視覚、聴覚、触覚及び嗅覚のうち少なくとも一つ以上の感覚を刺激するユーザへの働きかけを第1インタラクションとして表出する。印象検出部(3)は、第1インタラクションに対するユーザの反応レベルを検出し、第1インタラクションに対してユーザが抱いた印象を検出する。状態推定部(4)は、印象検出部による検出結果を用いてユーザの状態を推定する。
ユーザの視覚、聴覚、触覚及び嗅覚のうち少なくとも一つ以上の感覚を刺激するユーザへの働きかけを表出したときのユーザの反応レベルが、ユーザの状態により異なることに着眼した。ユーザへの働きかけに対してユーザが抱いた印象を検出し、その検出結果を用いてユーザの状態を推定するようにした。ユーザがコミュニケーションロボットに触れたことを検出する構成を前提とせず、ユーザへの働きかけに対するユーザの反応レベルからユーザの状態を推定するので、ユーザの状態を推定するのに必要な情報の制約を受けない。又、ユーザが無意識下にあるときでもユーザの状態を適切に推定することができる。更に、漏れが生じることなくユーザの状態を適切に推定することができる。
以下、本発明の一実施形態について図面を参照して説明する。ユーザの状態推定装置1は、インタラクション表出部2と、印象検出部3と、状態推定部4と、インタラクション検出部5と、インタラクション調整部6とを備える。これらの機能ブロックを構成する各部2〜6は、全てが同一の機器に搭載されて集約されていても良いし、少なくとも一部が別々の機器に搭載されて分散されていても良い。又、各部2〜6は、それぞれマイクロコンピュータが実行するコンピュータプログラムにより構成されており、ソフトウェアにより実現されている。即ち、マイクロコンピュータは、非遷移的実体的記録媒体に格納されているコンピュータプログラムを実行し、コンピュータプログラムに対応する処理を実行することで、ユーザの状態推定装置1の動作全般を制御する。各部2〜6の全てが同一の機器に搭載されている構成であれば、その機器に搭載されている例えば一つのマイクロコンピュータが一つのコンピュータプログラムを実行し、ユーザの状態推定装置1の動作全般を制御する。各部2〜6の少なくとも一部が別々の機器に搭載されている構成であれば、その別々の機器に搭載されている別々のマイクロコンピュータが別々のコンピュータプログラムを他と連携して実行し、ユーザの状態推定装置1の動作全般を制御する。
インタラクション表出部2は、ユーザの視覚、聴覚、触覚及び嗅覚のうち少なくとも一つ以上の感覚を刺激するユーザへの働きかけを第1インタラクションとして表出する。図2に示すように、インタラクション表出部2が例えば人型ロボット8の可動を制御する構成であれば、インタラクション表出部2は、人型ロボット8の可動を制御することで、ユーザの視覚を刺激するユーザへの働きかけを表出する。人型ロボット8は、頭部9と胴体部10とを有する構造であり、インタラクション表出部2は、頭部9を項垂れたり左右に振ったりするように可動を制御し、ユーザへの働きかけを表出する。
印象検出部3は、インタラクション表出部2により表出されたユーザへの働きかけに対するユーザの反応レベルを検出し、ユーザへの働きかけに対してユーザが抱いた印象を検出する。具体的に説明すると、印象検出部3は、センサ類7から入力するセンシング信号を用い、ユーザへの働きかけに対してユーザが抱いた印象を検出する。センサ類7は、例えばユーザの顔を撮影する画像センサ、ユーザの発話音声を入力する音声センサ、ユーザからの接触を検知する触覚センサ等であり、少なくとも何れかのセンサであれば良い。
印象検出部3は、ユーザの顔を撮影した映像を含む映像信号を画像センサからセンシング信号として入力すると、その入力した映像信号に含まれる映像を解析し、ユーザへの働きかけに対してユーザが抱いた印象を検出する。又、印象検出部3は、ユーザの発話音声を含む音声信号を音声センサからセンシング信号として入力すると、その入力した音声信号に含まれる発話音声を解析し、ユーザが抱いた印象を検出する。又、印象検出部3は、ユーザからの接触を含む接触信号を触覚センサからセンシング信号として入力すると、その入力した触覚信号に含まれるユーザからの接触を解析し、ユーザが抱いた印象を検出する。印象検出部3は、解析した映像や音声や接触がネガティブな種別であると判定すると、ユーザへの働きかけに対してユーザがネガティブな印象を抱いたと検出し、一方、解析した映像や音声や接触がポジティブな種別であると判定すると、ユーザへの働きかけに対してユーザがポジティブな印象を抱いたと検出する。そして、印象検出部3は、このようにしてユーザへの働きかけに対してユーザが抱いた印象を検出すると、その検出結果を状態推定部4及びインタラクション調整部6に出力する。
尚、センサ類7は、必ずしも人型ロボット8に実装されている必要はない。即ち、触覚センサは人型ロボット8に実装されている必要があるが、画像センサや音声センサは人型ロボット8に実装されている必要はない。画像センサは、少なくともユーザの顔を撮影可能な部位に配置されていれば良く、ユーザへの働きかけを人型ロボット8が行ったときのユーザの顔を撮影した映像を含む映像信号を例えば無線通信により印象検出部3に送信する構成であっても良い。又、音声センサは、少なくともユーザの発話音声を入力可能な部位に配置されていれば良く、ユーザへの働きかけを人型ロボット8が行ったときのユーザの発話音声を含む音声信号を例えば無線通信により印象検出部3に送信する構成であっても良い。又、例えばユーザがアンケートへの回答を印象検出部3に操作入力したりユーザが作成したSNS(Social Networking Service)等を印象検出部3に送信したりすることで、ユーザが抱いた印象を検出しても良い。即ち、印象検出部3は、ユーザへの働きかけに対してユーザが抱いた印象をリアルタイムで検出しても良いし遅延して検出しても良い。
状態推定部4は、印象検出部3から検出結果を入力すると、その入力した検出結果を用いてユーザの状態を推定する。ここでいうユーザの状態とは、ユーザの性格や精神状態を意味する。即ち、ユーザの状態とは、周囲環境の影響や時系列の変化にあまり左右されずに不変性が比較的高い性質を持つ性格と、周囲環境の影響や時系列の変化に左右されて不変性が比較的低い性質を持つ精神状態との両方を意味する。状態推定部4は、図3に示すように、ユーザが抱いた印象とユーザの情緒安定性との関係に関して検証実験で得られた結果を用いてユーザの状態を推定する。t検定で有意差が確認されたこととして、例えばユーザの情緒安定性が低い状態であれば、ユーザからの働きかけとユーザへの働きかけとの関係が、ポジティブとポジティブとの関係、又はネガティブとポジティブとの関係である場合に、ユーザが誠実な印象を抱くことが挙げられる。又、ユーザの情緒安定性が高い状態であれば、ユーザからの働きかけとユーザへの働きかけとの関係が、ポジティブとポジティブとの関係、又はネガティブとネガティブとの関係である場合に、ユーザが誠実な印象を抱くことが挙げられる。情緒安定性とは、心理学的にビッグファイブと称される5因子のうちの一つであり、外部からの刺激に対してユーザが落ち着いて対応することができるか否かを示す指標であり、精神的なバランスが安定しているかを示す指標である。
このようなユーザが抱いた印象とユーザの情緒安定性との関係を利用すると、図4に示す組み合わせにより、ユーザが抱いた印象からユーザの情緒安定性の度合いを推定することができる。例えばユーザからのネガティブな働きかけに対し、ユーザへのポジティブな働きかけをした場合に、ユーザが誠実な印象を抱けば、ユーザの情緒安定性が低いと推定することができ、一方、ユーザが誠実な印象を抱かなければ、ユーザの情緒安定性が高いと推定することができる。又、例えばユーザからのネガティブな働きかけに対し、ユーザへのネガティブな働きかけをした場合に、ユーザが誠実な印象を抱けば、ユーザの情緒安定性が高いと推定することができ、一方、ユーザが誠実な印象を抱かなければ、ユーザの情緒安定性が低いと推定することができる。
インタラクション検出部5は、ユーザからの働きかけを第2インタラクションとして検出すると、その検出結果をインタラクション調整部6に出力する。インタラクション調整部6は、印象検出部3から検出結果を入力し、インタラクション検出部5から検出結果を入力すると、その入力した検出結果を用いて前述した第1インタラクションを調整する。
具体的には、図5に示すように、ユーザが人型ロボット8の頭部9を叩いたことで、ユーザからのネガティブな働きかけを検出した場合に、インタラクション調整部6は、頭部9を項垂れるというユーザへのネガティブな働きかけを表出し、ネガティブな印象を受けたことをユーザに働きかけ、一方、頭部9を左右に振るというユーザへのポジティブな働きかけを表出し、ポジティブな印象を受けたことをユーザに働きかけるように調整する。インタラクション調整部6は、上記した頭部9を項垂れる動作を最大のネガティブな働きかけとし、頭部9を左右に振る動作を最大のポジティブな働きかけとし、その間で段階的に動作を変化させることで、第1インタラクションのネガティブレベルやポジティブレベルを調整すれば良い。
次に、上記した構成の作用について図6を参照して説明する。ユーザの状態推定装置1は、ユーザの状態を推定する状態推定処理を開始すると、ユーザからの働きかけに対してインタラクション表出部2が表出する第1インタラクションをランダムに決定する(S1)。ユーザの状態推定装置1は、ユーザからの働きかけを第2インタラクションとしてインタラクション検出部5により検出すると(S2、インタラクション検出手順に相当する)、先にランダムに決定しておいたインタラクション表出部2が表出する第1インタラクションを、その検出結果を用いてインタラクション調整部6により調整する(S3、インタラクション調整手順に相当する)。
ユーザの状態推定装置1は、インタラクション調整部6により調整した第1インタラクションをインタラクション表出部2により表出し(S4、インタラクション表出手順に相当する)、ユーザへの働きかけに対してユーザが抱いた印象を印象検出部3により検出する(S5、印象検出手順に相当する)。ユーザの状態推定装置1は、印象検出部3による検出結果を用いてユーザの状態を推定する(S6、状態推定手順に相当する)。ユーザの状態推定装置1は、状態推定処理を終了する条件が成立していなければ(S7:NO)、ステップS2に戻り、ステップS2以降を繰り返す。即ち、ユーザの状態推定装置1は、ユーザへの働きかけに対してユーザが抱いた印象を検出する前では、ユーザからの働きかけを検出した検出結果を用いてユーザへの働きかけを調整し、ユーザへの働きかけに対してユーザが抱いた印象を検出した後では、ユーザからの働きかけを検出した検出結果とユーザが抱いた印象を検出した検出結果とを用いてユーザへの働きかけを調整する。
具体的な用途として、例えば意思疎通が容易でない精神患者や赤ちゃんの状態を推定することが挙げられる。尚、赤ちゃんとは、出生してから28日未満の新生児と1歳未満の乳児とを含む。精神患者の状態を、誠実性の度合いから推定する場合であれば、ユーザの状態推定装置1が搭載されているコミュニケーションロボットを用意し、精神患者にコミュニケーションロボットと対話してもらい、対話中のコミュニケーションロボットに対する精神患者の対話レベルを取得する、又は対話後にコミュニケーションロボットに対する印象をアンケートしてコミュニケーションロボットを通じて回答してもらう。対話レベルとは、対話に満足しているかや対話に積極的であるか等に関する指標である。ユーザの状態推定装置1では、対話レベル又はアンケートの回答から誠実性の度合いを推定し、その推定した誠実性の度合いから情緒安定性の度合いを推定する。又、赤ちゃんの状態を、怒りの度合いから推定する場合であれば、ユーザの状態推定装置1が搭載されている玩具ロボットを用意し、赤ちゃんに玩具ロボットと遊んでもらい、遊んでいる最中の赤ちゃんの表情や泣き声等を取得する。ユーザの状態推定装置1では、表情や泣き声等から怒りの度合いを推定し、その推定した怒りの度合いから情緒安定性の度合いを推定する。
尚、以上は、ユーザへの働きかけとして頭部9を項垂れたり左右に振ったりする動作を例示し、ユーザの視覚を刺激する働きかけを説明したが、ユーザの聴覚、触覚及び嗅覚を刺激する働きかけでも良く、即ちユーザの視覚、聴覚、触覚及び嗅覚のうち少なくとも一つ以上の感覚を刺激する働きかけであれば良い。
以上に説明したように本実施形態によれば、次に示す効果を得ることができる。
ユーザの状態推定装置1において、ユーザの視覚、聴覚、触覚及び嗅覚のうち少なくとも一つ以上の感覚を刺激するユーザへの働きかけを表出したときのユーザの反応レベルが、ユーザの状態により異なることに着眼した。ユーザへの働きかけに対してユーザが抱いた印象を検出し、その検出結果を用いてユーザの状態を推定するようにした。ユーザがコミュニケーションロボットに触れたことを検出する構成を前提とせず、ユーザへの働きかけに対するユーザの反応レベルからユーザの状態を推定するので、ユーザの状態を推定するのに必要な情報の制約を受けない。又、ユーザが無意識下にあるときでもユーザの状態を適切に推定することができる。更に、漏れが生じることなくユーザの状態を適切に推定することができる。
ユーザの状態推定装置1において、ユーザの視覚、聴覚、触覚及び嗅覚のうち少なくとも一つ以上の感覚を刺激するユーザへの働きかけを表出したときのユーザの反応レベルが、ユーザの状態により異なることに着眼した。ユーザへの働きかけに対してユーザが抱いた印象を検出し、その検出結果を用いてユーザの状態を推定するようにした。ユーザがコミュニケーションロボットに触れたことを検出する構成を前提とせず、ユーザへの働きかけに対するユーザの反応レベルからユーザの状態を推定するので、ユーザの状態を推定するのに必要な情報の制約を受けない。又、ユーザが無意識下にあるときでもユーザの状態を適切に推定することができる。更に、漏れが生じることなくユーザの状態を適切に推定することができる。
又、ユーザの状態推定装置1において、ユーザからの働きかけを第2インタラクションとして検出し、ユーザへの働きかけに対してユーザが抱いた印象やユーザからの働きかけを用いてユーザへの働きかけを調整するようにした。ユーザが抱いた印象やユーザからの働きかけからユーザの状態を適切に推定することができる。
本開示は、実施例に準拠して記述されたが、当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、更には、それらに一要素のみ、それ以上、或いはそれ以下を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。
ユーザの状態推定装置1として人型ロボット8に適用した構成を例示したが、例えばぬいぐるみ型ロボット等のユーザとの対話を表現するロボットに適用しても良い。又、コンピュータを用いて作成した画像(即ちコンピュータグラフィックス)に適用しても良い。インタラクションを表出する態様として、人型ロボット8の頭部9を項垂れる動作や左右に振る動作を例示したが、これら以外の動作を採用しても良い。例えばぬいぐるみ型ロボットであれば、尻尾を振る動作等を採用しても良い。
図面中、1はユーザの状態推定装置、2はインタラクション表出部、3は印象検出部、4は状態推定部、5はインタラクション検出部、6はインタラクション調整部である。
Claims (6)
- インタラクションを用いてユーザの状態を推定する装置(1)において、
ユーザの視覚、聴覚、触覚及び嗅覚のうち少なくとも一つ以上の感覚を刺激するユーザへの働きかけを第1インタラクションとして表出するインタラクション表出部(2)と、
前記第1インタラクションに対するユーザの反応レベルを検出し、当該第1インタラクションに対してユーザが抱いた印象を検出する印象検出部(3)と、
前記印象検出部による検出結果を用いてユーザの状態を推定する状態推定部(4)と、を備えたインタラクションを用いたユーザの状態推定装置。 - ユーザからの働きかけを第2インタラクションとして検出するインタラクション検出部(5)と、
前記印象検出部による検出結果及び前記第2インタラクションのうち少なくとも何れかを用いて前記第1インタラクションを調整するインタラクション調整部(6)と、を備えた請求項1にインタラクションを用いたユーザの状態推定装置。 - 前記インタラクション調整部は、前記第1インタラクションのネガティブレベルやポジティブレベルを調整する請求項2に記載のインタラクションを用いたユーザの状態推定装置。
- 前記状態推定部は、ユーザの状態として情緒安定性の程度を推定する請求項1から3の何れか一項に記載のインタラクションを用いたユーザの状態推定装置。
- インタラクションを用いてユーザの状態を推定する方法において、
ユーザの視覚、聴覚、触覚及び嗅覚のうち少なくとも一つ以上の感覚を刺激するユーザへの働きかけを第1インタラクションとして表出するインタラクション表出手順と、
前記第1インタラクションに対するユーザの反応レベルを検出し、当該第1インタラクションに対してユーザが抱いた印象を検出する印象検出手順と、
前記印象検出手順による検出結果を用いてユーザの状態を推定する状態推定手順と、を行うインタラクションを用いたユーザの状態推定方法。 - ユーザからの働きかけを第2インタラクションとして検出するインタラクション検出手順と、
前記印象検出手順による検出結果及び前記第2インタラクションのうち少なくとも何れかを用いて前記第1インタラクションを調整するインタラクション調整手順と、を行う請求項5に記載のインタラクションを用いたユーザの状態推定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017043804A JP2018143639A (ja) | 2017-03-08 | 2017-03-08 | インタラクションを用いたユーザの状態推定装置及びその方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017043804A JP2018143639A (ja) | 2017-03-08 | 2017-03-08 | インタラクションを用いたユーザの状態推定装置及びその方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018143639A true JP2018143639A (ja) | 2018-09-20 |
Family
ID=63590184
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017043804A Pending JP2018143639A (ja) | 2017-03-08 | 2017-03-08 | インタラクションを用いたユーザの状態推定装置及びその方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018143639A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7169029B1 (ja) | 2022-04-28 | 2022-11-10 | ヴイストン株式会社 | 赤ちゃん型対話ロボット、赤ちゃん型対話方法及び赤ちゃん型対話プログラム |
-
2017
- 2017-03-08 JP JP2017043804A patent/JP2018143639A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7169029B1 (ja) | 2022-04-28 | 2022-11-10 | ヴイストン株式会社 | 赤ちゃん型対話ロボット、赤ちゃん型対話方法及び赤ちゃん型対話プログラム |
JP2023163600A (ja) * | 2022-04-28 | 2023-11-10 | ヴイストン株式会社 | 赤ちゃん型対話ロボット、赤ちゃん型対話方法及び赤ちゃん型対話プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104007818B (zh) | 具有本能警告的移动设备 | |
EP2652578B1 (en) | Correlation of bio-signals with modes of operation of an apparatus | |
JP2019096349A5 (ja) | ||
JP2020511324A (ja) | 育児ロボットのデータ処理方法及び装置 | |
JP6402718B2 (ja) | 情報処理装置、制御方法およびプログラム | |
US20170169727A1 (en) | Orator Effectiveness Through Real-Time Feedback System With Automatic Detection of Human Behavioral and Emotional States of Orator and Audience | |
US12008161B2 (en) | Smart ring | |
EP3637228A2 (en) | Real-time motion feedback for extended reality | |
JP2018143639A (ja) | インタラクションを用いたユーザの状態推定装置及びその方法 | |
WO2016143415A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP6347347B2 (ja) | 通知システム、通知プログラム、通知方法および通知装置 | |
KR102078792B1 (ko) | 아스퍼거 증후군 치료 장치 | |
JP7412265B2 (ja) | 動作評価システム、動作評価装置、および動作評価方法 | |
US20220327956A1 (en) | Language teaching machine | |
US20200219412A1 (en) | System and method for sensor fusion from a plurality of sensors and determination of a responsive action | |
TWI515608B (zh) | 電子裝置之動作管理方法及系統,及相關電腦程式產品 | |
KR101564933B1 (ko) | 네트워크 기반의 사용자 감성 추론 장치 및 방법 | |
EP3671724A1 (en) | Playback of personalised audio | |
JP2020201536A (ja) | 情報処理装置、情報処理システム及び情報処理プログラム | |
JP2021051458A (ja) | 情報処理システム、情報処理装置、方法およびプログラム | |
JP6340626B2 (ja) | 通知システム、通知プログラム、通知方法および通知装置 | |
Sadat et al. | Recognizing human affection: Smartphone perspective | |
JP7390891B2 (ja) | クライアント装置、サーバ、プログラム、及び、情報処理方法 | |
JP2023036050A (ja) | 支援装置、支援方法、支援システムおよびプログラム | |
JP2018005308A (ja) | 徘徊抑制装置、徘徊抑制方法及び徘徊抑制プログラム |