JP6166234B2 - ロボット制御装置、ロボット制御方法及びロボット制御プログラム - Google Patents
ロボット制御装置、ロボット制御方法及びロボット制御プログラム Download PDFInfo
- Publication number
- JP6166234B2 JP6166234B2 JP2014162607A JP2014162607A JP6166234B2 JP 6166234 B2 JP6166234 B2 JP 6166234B2 JP 2014162607 A JP2014162607 A JP 2014162607A JP 2014162607 A JP2014162607 A JP 2014162607A JP 6166234 B2 JP6166234 B2 JP 6166234B2
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- information
- robot
- user
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
まず、本実施の形態におけるロボット制御装置1の構成について説明する。
続いて、ロボット制御装置1が利用する外部のサーバが保持するデータについて説明する。図6に、位置情報取得サーバ6が保持する方位情報データベース60の構成例を示す。方位情報データベース60は、視線対象に対応させた方位角と仰俯角を格納する。視線対象は、ロボット5の視線の先にあるユーザ又は映像表示デバイス2のことである。方位角と仰俯角はロボット5の視線の角度である。
本実施の形態を詳細に説明する前に、主要な情報である映像関連情報とユーザ情報の情報の流れを図7に示して本実施の形態の基本的な考えについて説明する。映像関連情報は、映像印象を推定するために必要な視聴シーンに関わる情報であり、視聴映像の音声、動画像、視聴映像に含まれる字幕などのデータを含む情報である。なお、視聴映像に関するTwitterなどのソーシャルコメント情報等を映像関連情報に含めてもよい。
次に、ロボット制御装置1の動作について説明する。以下では、ロボット制御装置1を構成する各機能構成部ごとの動作を順に説明する。
図9に、映像関連情報収集部11の動作フローを示してその動作を説明する。映像関連情報収集部11は、映像表示デバイス2から映像を受信すると動作を開始する。まず、映像関連情報収集部11は、映像表示デバイス2から受信した情報が映像であるか否かを判定する(ステップS110)。映像でなかった場合は、映像が受信されるまで判定動作を繰り返す(ステップS110のNo)。
図10に、ユーザ情報収集部12の動作フローを示してその動作を説明する。ユーザ情報収集部12は、カメラ3からユーザ動画情報、マイク4からユーザ音声情報、の何れかを受信すると動作を開始する。まず、ユーザ情報収集部12は、カメラ3とマイク4から受信した情報がユーザ動画情報とユーザ音声情報であるか否かを判定する(ステップS120)。ユーザ動画情報とユーザ音声情報の両方が受信できるまで判定動作を繰り返す(ステップS120のNo)。
図11に、映像印象推定部14の動作フローを示してその動作を説明する。映像印象推定部14は、最初に映像関連情報収集部11から受信した情報が映像関連情報であるか否かを判定する(ステップS140)。
図12に、ユーザ感情推定部13の動作フローを示してその動作を説明する。ユーザ感情推定部13は、最初にユーザ情報収集部12から受信した情報がユーザ情報であるか否かを判定する(ステップS130)。
図13に、感情状態決定部16の動作フローを示してその動作を説明する。感情状態決定部16は、映像印象推定部14から受信した情報が映像印象情報であるか否かを判定する(ステップS160)。映像印象情報である場合(ステップS160のYes)、感情状態決定部16は、ユーザ感情推定部13から受信した情報がユーザ感情情報であるか否かを判定する(ステップS161)。なお、判定の順番はユーザ感情情報が先であってもよい。
中間値利用手法では、映像印象情報とユーザ感情情報を同じ種類の感情状態の要素と値のスケールにマッピングする。マッピングにおいては、マッピングの変換対応を記述したデータベースを用意することで実現できる。マッピングは、互いに関連する2種類の感情状態の要素を1組として行う。例えば、感情状態の要素を2組の覚醒−非覚醒と快−不快とした場合、マッピングの変換対応は例えば図14に示すように行うことができる。ここで、感情状態の要素とはロボット5の感情の種類である。よって、感情状態の要素を覚醒−非覚醒と快−不快とした場合のロボット5の感情は、覚醒レベル(覚醒値)と快適レベル(快値)とで表現される。
ロボット5が感情表現を行うために利用する映像関連情報やユーザ情報は、ロボット5がどの方向を向いているかに関わらず取得することができる。一方で、人は視覚により周囲の情報を得ることが多い。人同士が交流する際には、相手が視覚によった情報処理をしている前提でコミュニケーションが図られる。
ここでvalsee-movie=0.8, valnosee-movie=0.2, valsee-user=0.8, valnosee-user=0.2の値は一例である。
図15に、感情表現生成部17の動作フローを示してその動作を説明する。感情表現生成部17は、感情状態決定部16からロボット5の感情状態を受信すると動作を開始する(ステップS170のYes)。感情表現生成部17が動作を開始すると、ロボット5の感情状態の覚醒値と快値を用いて音声表現データベース19を参照し、ロボット5が発する音声データを決定する(ステップS171)。
11:映像関連情報収集部
12:ユーザ情報収集部
13:ユーザ感情推定部
14:映像印象推定部
15:感情語辞書
16:感情状態決定部
17:感情表現生成部
18:感情状態変換ルールベース
19:音声表現データベース
20:身体表現データベース
2:映像表示デバイス
3:カメラ
4:マイク
5:ロボット
6:位置情報取得サーバ
60:方位情報データベース
Claims (6)
- ユーザとともに映像を視聴するような動作をロボットに実行させるロボット制御装置であって、
人間が前記映像を見た場合に当該人間に喚起される感情を表す映像印象情報と、前記映像を見た前記ユーザの感情を表すユーザ感情情報とを入力し、互いに関連する2種類の感情の種類を1組としてn組(nは1以上の整数)の感情の種類が予め設定されている場合において、前記映像印象情報から、予め用意された変換ルールを用いて、当該各種類の感情の大きさを示す値を生成し、前記ユーザ感情情報から、前記変換ルールを用いて、当該各種類の感情の大きさを示す値を生成し、前記各組につき、(1)前記映像印象情報から生成した当該組の一方の感情の種類についての値に予め定められた重みαを乗じた値と前記ユーザ感情情報から生成した当該組の当該一方の感情の種類についての値に予め定められた重みβを乗じた値の和を前記ロボットの当該組の当該一方の感情の種類についての値として計算し、(2)前記映像印象情報から生成した当該組の他方の感情の種類についての値に前記重みαを乗じた値と前記ユーザ感情情報から生成した当該組の当該他方の感情の種類についての値に前記重みβを乗じた値の和を前記ロボットの当該組の当該他方の感情の種類についての値として計算する
感情状態決定部を備えることを特徴とするロボット制御装置。 - 請求項1に記載したロボット制御装置において、
前記感情状態決定部は、
前記重みβは0≦β≦1の範囲に含まれ、前記重みαはα=(1−β)であることを特徴とするロボット制御装置。 - 請求項1に記載したロボット制御装置において、
前記ロボットの視線方向を表すロボット視線情報を入力とし、前記ロボット視線情報が前記映像の方向を示す場合はα>βであり、前記ロボット視線情報が前記ユーザの方向を示す場合はβ>αであることを特徴とするロボット制御装置。 - 請求項3に記載したロボット制御装置において、
前記感情状態決定部は、
前記ロボット視線情報が前記映像の方向を示す場合は、前記ロボット視線情報が前記映像の方向を示す場合のために予め定められた映像印象情報の重みおよびユーザ感情情報の重みをそれぞれ前記重みαおよび前記重みβに設定し、
前記ロボット視線情報が前記ユーザの方向を示す場合は、前記ロボット視線情報が前記ユーザの方向を示す場合のために予め定められた映像印象情報の重みおよびユーザ感情情報の重みをそれぞれ前記重みαおよび前記重みβに設定し、
前記ロボット視線情報がその他の方向を示す場合は、前記ロボット視線情報がその他の方向を示す場合のために予め定められた映像印象情報の重みおよびユーザ感情情報の重みをそれぞれ前記重みαおよび前記重みβに設定する
ことを特徴とするロボット制御装置。 - ユーザとともに映像を視聴するような動作をロボットに実行させるロボット制御装置が行うロボット制御方法であって、
人間が前記映像を見た場合に当該人間に喚起される感情を表す映像印象情報と、前記映像を見た前記ユーザの感情を表すユーザ感情情報とを入力し、互いに関連する2種類の感情の種類を1組としてn組(nは1以上の整数)の感情の種類が予め設定されている場合において、前記映像印象情報から、予め用意された変換ルールを用いて、当該各種類の感情の大きさを示す値を生成し、前記ユーザ感情情報から、前記変換ルールを用いて、当該各種類の感情の大きさを示す値を生成し、前記各組につき、(1)前記映像印象情報から生成した当該組の一方の感情の種類についての値に予め定められた重みαを乗じた値と前記ユーザ感情情報から生成した当該組の当該一方の感情の種類についての値に予め定められた重みβを乗じた値の和を前記ロボットの当該組の当該一方の感情の種類についての値として計算し、(2)前記映像印象情報から生成した当該組の他方の感情の種類についての値に前記重みαを乗じた値と前記ユーザ感情情報から生成した当該組の当該他方の感情の種類についての値に前記重みβを乗じた値の和を前記ロボットの当該組の当該他方の感情の種類についての値として計算することを特徴とするロボット制御方法。 - 請求項1乃至4の何れかに記載したロボット制御装置としてコンピュータを機能させるためのロボット制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014162607A JP6166234B2 (ja) | 2014-08-08 | 2014-08-08 | ロボット制御装置、ロボット制御方法及びロボット制御プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014162607A JP6166234B2 (ja) | 2014-08-08 | 2014-08-08 | ロボット制御装置、ロボット制御方法及びロボット制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016036883A JP2016036883A (ja) | 2016-03-22 |
JP6166234B2 true JP6166234B2 (ja) | 2017-07-19 |
Family
ID=55528438
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014162607A Active JP6166234B2 (ja) | 2014-08-08 | 2014-08-08 | ロボット制御装置、ロボット制御方法及びロボット制御プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6166234B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11962545B2 (en) | 2021-12-27 | 2024-04-16 | Samsung Electronics Co., Ltd. | Method and device for providing chatbot participating chat service |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102522898B1 (ko) * | 2016-05-09 | 2023-04-19 | 한국전자통신연구원 | 작업자의 감정 상태의 인식을 통해 협업 로봇의 안전성을 조절하는 방법 및 장치 |
CN107590503A (zh) * | 2016-07-07 | 2018-01-16 | 深圳狗尾草智能科技有限公司 | 一种机器人情感数据更新方法及系统 |
JP6814089B2 (ja) * | 2017-05-02 | 2021-01-13 | 株式会社ソニー・インタラクティブエンタテインメント | オブジェクト制御システムおよびオブジェクト制御方法 |
JP7051728B2 (ja) * | 2019-01-25 | 2022-04-11 | Necパーソナルコンピュータ株式会社 | 対話型ロボット及びその制御装置 |
JPWO2022264234A1 (ja) * | 2021-06-14 | 2022-12-22 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5832189A (en) * | 1996-09-26 | 1998-11-03 | Interval Research Corporation | Affect-based robot communication methods and systems |
JP2001212783A (ja) * | 2000-02-01 | 2001-08-07 | Sony Corp | ロボット装置及びその制御方法 |
JP4266552B2 (ja) * | 2001-10-16 | 2009-05-20 | 日本電気株式会社 | ロボット装置及びその制御方法 |
JP2003191187A (ja) * | 2001-12-21 | 2003-07-08 | Sony Corp | ロボット装置及びその制御方法 |
JP3702297B2 (ja) * | 2002-08-01 | 2005-10-05 | 株式会社Oiテクノロジーズ | ロボット制御装置及びロボット制御方法並びにそのプログラム |
JP5499924B2 (ja) * | 2010-06-14 | 2014-05-21 | 富士通株式会社 | ロボットの制御方法、ロボットの制御プログラムおよびロボット |
JP5729692B2 (ja) * | 2011-02-28 | 2015-06-03 | 国立大学法人信州大学 | ロボット装置 |
WO2012172721A1 (ja) * | 2011-06-14 | 2012-12-20 | パナソニック株式会社 | ロボット装置、ロボット制御方法、及びロボット制御プログラム |
JP2013099823A (ja) * | 2011-11-09 | 2013-05-23 | Panasonic Corp | ロボット装置、ロボット制御方法、ロボット制御プログラム、およびロボットシステム |
JP5527747B1 (ja) * | 2012-12-25 | 2014-06-25 | コリア インスティチュート オブ インダストリアル テクノロジー | 機械装置の持続的な情緒表現動作を選択するための装置及び方法 |
-
2014
- 2014-08-08 JP JP2014162607A patent/JP6166234B2/ja active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11962545B2 (en) | 2021-12-27 | 2024-04-16 | Samsung Electronics Co., Ltd. | Method and device for providing chatbot participating chat service |
Also Published As
Publication number | Publication date |
---|---|
JP2016036883A (ja) | 2016-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6166234B2 (ja) | ロボット制御装置、ロボット制御方法及びロボット制御プログラム | |
US11858118B2 (en) | Robot, server, and human-machine interaction method | |
US11836593B1 (en) | Devices, systems, and methods for learning and using artificially intelligent interactive memories | |
Yoon et al. | Robots learn social skills: End-to-end learning of co-speech gesture generation for humanoid robots | |
US11430171B2 (en) | Explainable artificial intelligence | |
Piana et al. | Real-time automatic emotion recognition from body gestures | |
US20190172448A1 (en) | Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method | |
JP7254772B2 (ja) | ロボットインタラクションのための方法及びデバイス | |
US9875445B2 (en) | Dynamic hybrid models for multimodal analysis | |
KR102346026B1 (ko) | 전자 장치 및 이의 제어 방법 | |
CN110598576A (zh) | 一种手语交互方法、装置及计算机介质 | |
JP2019087257A (ja) | 社会的交流をガイドするためのシステムおよび方法 | |
US20210033873A1 (en) | Electronic device and method of controlling the same | |
US20230173683A1 (en) | Behavior control device, behavior control method, and program | |
Chu et al. | A face-to-face neural conversation model | |
Rwelli et al. | Gesture based Arabic sign language recognition for impaired people based on convolution neural network | |
CN115187704A (zh) | 虚拟主播生成方法、装置、设备及存储介质 | |
JP5840186B2 (ja) | 感情検索装置、方法及びプログラム | |
CN111949773A (zh) | 一种阅读设备、服务器以及数据处理的方法 | |
WO2022165109A1 (en) | Methods and systems enabling natural language processing, understanding and generation | |
Mishra et al. | Environment descriptor for the visually impaired | |
KR102338217B1 (ko) | 언어학습 시스템의 제어 방법 | |
KR102203786B1 (ko) | 스마트 토이를 이용한 인터렉션 서비스 제공방법 및 시스템 | |
WO2023017753A1 (ja) | 学習装置、学習方法、およびプログラム | |
Hou et al. | Avatar-Basedhuman Communication: A Review |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160913 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170608 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170622 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6166234 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |