JP2008107673A - 会話ロボット - Google Patents
会話ロボット Download PDFInfo
- Publication number
- JP2008107673A JP2008107673A JP2006292067A JP2006292067A JP2008107673A JP 2008107673 A JP2008107673 A JP 2008107673A JP 2006292067 A JP2006292067 A JP 2006292067A JP 2006292067 A JP2006292067 A JP 2006292067A JP 2008107673 A JP2008107673 A JP 2008107673A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- output device
- recognition means
- facial expression
- output unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Abstract
【課題】話し相手の感情に応じた会話等を行うことができる会話ロボットを提供する。
【解決手段】
音声入力器2、音声出力器3、表情出力器4、および動作出力器5、これらが接続され音声認識手段を構成する処理装置1を備えている。処理装置1は、音声入力器2を介して入力した音声を分析して複数の基本パラメータを算出するステップと、基本パラメータから複数種の感情パラメータを算出するステップと、予め各感情パラメータに応じて定められた発話シナリオに基づいて音声出力器3を介して所定の音声を出力するステップと、予め各感情パラメータに応じて定められた表情シナリオおよび動作シナリオに基づいて、表情出力器4を介して所定の表情を創出するステップと、動作出力器5を介して所定の動作を実現するステップとをそれぞれ実行する。
【選択図】 図1
【解決手段】
音声入力器2、音声出力器3、表情出力器4、および動作出力器5、これらが接続され音声認識手段を構成する処理装置1を備えている。処理装置1は、音声入力器2を介して入力した音声を分析して複数の基本パラメータを算出するステップと、基本パラメータから複数種の感情パラメータを算出するステップと、予め各感情パラメータに応じて定められた発話シナリオに基づいて音声出力器3を介して所定の音声を出力するステップと、予め各感情パラメータに応じて定められた表情シナリオおよび動作シナリオに基づいて、表情出力器4を介して所定の表情を創出するステップと、動作出力器5を介して所定の動作を実現するステップとをそれぞれ実行する。
【選択図】 図1
Description
本発明は会話ロボットに関し、特に、話し相手の感情を認識して会話することができる会話ロボットに関する。
特許文献1には、ユーザ認識部でユーザの顔正面方向を認識し、目認識部でユーザの目の方向を認識して、認識したユーザの目の方向へ首目制御部によってロボットの首と目を制御してユーザに話し掛けるようにした会話ロボットが提案されている。また、特許文献2には、経歴、趣味、知人等のデータあるいはエピソードを入力させて人物像を形成するとともに、話の骨格となる文章を記憶させてデータやエピソードで肉付けして会話文を構成し出力させる会話ロボットが提案されている。
特開2004−34274
特開2003−330921
しかし、上記各特許文献に記載の従来の会話ロボットでは、話し相手の、例えば怒り、喜び、ストレス等の感情に応じた会話を行い、表情等を作ることはできないという問題があった。
そこで、本発明はこのような課題を解決するもので、話し相手の感情に応じた会話等を行うことができる会話ロボットを提供することを目的とする。
上記目的を達成するために、本第1発明では、音声入力器(2)と、音声出力器(3)と、音声認識手段(1)とを備え、音声認識手段(1)は、音声入力器(2)を介して入力した音声を分析して複数の基本パラメータを算出するステップ(102)と、基本パラメータから複数種の感情パラメータを算出するステップ(103)と、予め各感情パラメータに応じて定められた発話シナリオに基づいて音声出力器(3)を介して所定の音声を出力するステップ(104)を実行するものである。
本第1発明においては、感情パラメータに応じて定められた発話シナリオに基づいて音声出力器を介して所定の音声を出力するから、話し相手の感情に応じた会話を行うことができる。
本第2発明では、表情出力器(4)と、動作出力器(5)とをさらに備え、上記音声認識手段(1)は、予め各感情パラメータに応じて定められた表情シナリオおよび動作シナリオに基づいて、表情出力器(4)を介して所定の表情を創出するステップ(105)と、動作出力器(5)を介して所定の動作を実現するステップ(106)とをそれぞれ実行するものである。
本第2発明においては、感情パラメータに応じて定められた表情シナリオおよび動作シナリオに基づいて、表情出力器を介して所定の表情を創出するとともに、動作出力器を介して所定の動作を実現するから、話し相手の感情に応じた表情を創出し、動作を行うことができる。
本第3発明では、上記音声認識手段(1)は、入力した音声中の微小の高周波と低周波の出現頻度より上記基本パラメータを算出するものである。
なお、上記カッコ内の符号は、後述する実施形態に記載の具体的手段との対応関係を示すものである。
本発明の会話ロボットによれば、話し相手の感情に応じた会話を行うことができる。
図1には会話ロボットのハード構成を示す。図において、会話ロボットはCPUやメモリを有してソフトウェアで音声認識手段を実現する処理装置1を備えており、当該処理装置1にはマイクロホン等の音声入力器2が接続されるとともに、スピーカ等の音声出力器3、ロボットの目や口等の表情を変化させる表情出力器4、およびロボットの腕や足等を動作させる動作出力器5が接続されている。
図2には処理装置における情報処理手順を示す。処理装置は音声入力器2から入力された音声を分析し(ステップ101)、音声中の微小の高周波と低周波の出現頻度より基本パラメータを算出する(ステップ102)。その後、基本パラメータを組み合わせて「怒り」「喜び」「ストレス」等の13種の感情パラメータを算出する(ステップ103)。そして、予め各感情パラメータに対応させてメモリに記憶されている発話シナリオ、表情シナリオ、および動作シナリオに基づいて、音声出力器3を介して所定の音声を出力し(ステップ104)、表情出力器4を介して所定の表情を創出し(ステップ105)、動作出力器5を介して所定の動作を実現する(ステップ106)。
例えば感情パラメータはそれぞれ「0」〜「10」の数値で示され、その組み合わせによって各シナリオが参照されて、所定の音声出力、表情創出、動作実現がなされる。一例としては、感情パラメータの「怒り」が「10」、「喜び」が「0」である場合には「何かあったの?」という音声出力がなされるとともに、これに応じた表情や動作がなされる。また感情パラメータの「ストレス」が「10」である場合には「疲れているみたいだね?」という音声出力がなされ、これに応じた表情や動作がなされる。
1…処理装置(音声認識手段)、2…音声入力器、3…音声出力器、4…表情出力器、5…動作出力器。
Claims (3)
- 音声入力器と、音声出力器と、音声認識手段とを備え、前記音声認識手段は、前記音声入力器を介して入力した音声を分析して複数の基本パラメータを算出するステップと、前記基本パラメータから複数種の感情パラメータを算出するステップと、予め前記各感情パラメータに応じて定められた発話シナリオに基づいて前記音声出力器を介して所定の音声を出力するステップを実行するものである会話ロボット。
- 表情出力器と、動作出力器とをさらに備え、前記音声認識手段は、予め前記各感情パラメータに応じて定められた表情シナリオおよび動作シナリオに基づいて、前記表情出力器を介して所定の表情を創出するステップと、前記動作出力器を介して所定の動作を実現するステップとをそれぞれ実行するものである請求項1に記載の会話ロボット。
- 前記音声認識手段は、入力した音声中の微小の高周波と低周波の出現頻度より前記基本パラメータを算出するものである請求項1または2に記載の会話ロボット。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006292067A JP2008107673A (ja) | 2006-10-27 | 2006-10-27 | 会話ロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006292067A JP2008107673A (ja) | 2006-10-27 | 2006-10-27 | 会話ロボット |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008107673A true JP2008107673A (ja) | 2008-05-08 |
Family
ID=39441057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006292067A Pending JP2008107673A (ja) | 2006-10-27 | 2006-10-27 | 会話ロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008107673A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011076047A (ja) * | 2009-10-01 | 2011-04-14 | Nobuyoshi Yamagishi | 音響分析技術と心理学を用いた疑似コミュニケーション装置 |
WO2016157944A1 (ja) * | 2015-03-31 | 2016-10-06 | シャープ株式会社 | ロボット |
CN107009362A (zh) * | 2017-05-26 | 2017-08-04 | 深圳市阿西莫夫科技有限公司 | 机器人控制方法和装置 |
CN108447470A (zh) * | 2017-12-28 | 2018-08-24 | 中南大学 | 一种基于声道和韵律特征的情感语音转换方法 |
US10486312B2 (en) | 2015-04-10 | 2019-11-26 | Vstone Co., Ltd. | Robot, robot control method, and robot system |
-
2006
- 2006-10-27 JP JP2006292067A patent/JP2008107673A/ja active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011076047A (ja) * | 2009-10-01 | 2011-04-14 | Nobuyoshi Yamagishi | 音響分析技術と心理学を用いた疑似コミュニケーション装置 |
WO2016157944A1 (ja) * | 2015-03-31 | 2016-10-06 | シャープ株式会社 | ロボット |
JP2016193466A (ja) * | 2015-03-31 | 2016-11-17 | シャープ株式会社 | ロボット |
US10486312B2 (en) | 2015-04-10 | 2019-11-26 | Vstone Co., Ltd. | Robot, robot control method, and robot system |
CN107009362A (zh) * | 2017-05-26 | 2017-08-04 | 深圳市阿西莫夫科技有限公司 | 机器人控制方法和装置 |
CN108447470A (zh) * | 2017-12-28 | 2018-08-24 | 中南大学 | 一种基于声道和韵律特征的情感语音转换方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200279553A1 (en) | Linguistic style matching agent | |
US11430438B2 (en) | Electronic device providing response corresponding to user conversation style and emotion and method of operating same | |
JP6505748B2 (ja) | 人間型ロボットとユーザーの間におけるマルチモード会話を実行する方法、前記方法を実装するコンピュータプログラム及び人間型ロボット | |
JP2008125815A (ja) | 会話ロボットシステム | |
US20190294638A1 (en) | Dialog method, dialog system, dialog apparatus and program | |
CN103543979A (zh) | 一种输出语音的方法、语音交互的方法及电子设备 | |
CN104350541A (zh) | 能够将与用户的自然对话合并到其行为中的机器人,以及编程和使用所述机器人的方法 | |
CN106503786B (zh) | 用于智能机器人的多模态交互方法和装置 | |
US20200193961A1 (en) | System for synchronizing speech and motion of character | |
JP2008107673A (ja) | 会話ロボット | |
JP2018049132A (ja) | 音声対話システムおよび音声対話方法 | |
JP2017213612A (ja) | ロボットおよびロボットの制御方法 | |
KR20200059112A (ko) | 로봇 상호작용 시스템 및 그를 위한 프로그램 | |
CN114995636A (zh) | 多模态交互方法以及装置 | |
JP2015069231A (ja) | キャラクタ生成装置およびプログラム | |
Nagy et al. | A framework for integrating gesture generation models into interactive conversational agents | |
KR102407132B1 (ko) | 고인을 모사하는 가상 인물과 대화를 수행하는 서비스를 제공하는 방법 및 시스템 | |
JP2016090775A (ja) | 応答生成装置、応答生成方法およびプログラム | |
JP7225642B2 (ja) | コミュニケーションロボット、制御方法及び制御プログラム | |
JP2015150620A (ja) | ロボット制御システムおよびロボット制御プログラム | |
JP2018181018A (ja) | 会話提供装置、会話提供方法及びプログラム | |
Feldman et al. | Engagement with artificial intelligence through natural interaction models | |
WO2017200077A1 (ja) | 対話方法、対話システム、対話装置、及びプログラム | |
JP2009134008A (ja) | 感情応答生成装置及び感情応答生成プログラム | |
KR102147835B1 (ko) | 인터랙티브 로봇의 발화 및 제스처 속성 결정 장치 및 방법 |