JP6443419B2 - 音声対話装置及びその制御方法 - Google Patents
音声対話装置及びその制御方法 Download PDFInfo
- Publication number
- JP6443419B2 JP6443419B2 JP2016196557A JP2016196557A JP6443419B2 JP 6443419 B2 JP6443419 B2 JP 6443419B2 JP 2016196557 A JP2016196557 A JP 2016196557A JP 2016196557 A JP2016196557 A JP 2016196557A JP 6443419 B2 JP6443419 B2 JP 6443419B2
- Authority
- JP
- Japan
- Prior art keywords
- conversation
- robot
- eyes
- partner
- conversation partner
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/0015—Face robots, animated artificial faces for imitating human expressions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Description
対話ロボットに組み込まれる音声対話装置であって、
画像を撮影する撮影部と、
前記画像に写る対話相手の位置を認識する環境認識部と、
前記対話ロボットの目の位置に配置され、前記対話ロボットの目を表示する表示部と、
前記表示部に表示される前記対話ロボットの目の視線を、前記対話相手を認識した位置に向ける目制御部と、を備える。
対話ロボットに組み込まれる音声対話装置の制御方法であって、
画像を撮影し、
前記画像に写る対話相手の位置を認識し、
前記対話ロボットの目の位置に配置された表示部に表示される前記対話ロボットの目の視線を、前記対話相手を認識した位置に向ける。
(1)実施の形態1
(1−1)実施の形態1の構成
まず、本実施の形態1の構成について説明する。図1は、本実施の形態1に係る音声対話装置100の構成例を示すブロック図である。図2は、本実施の形態1に係る音声対話装置100が組み込まれる対話ロボット200の外観構成例を示す図である。図2に示される対話ロボット200は、動物型のロボットになっている。ただし、対話ロボット200の外観構成はこれに限定されない。
カメラ102は、対話相手及び対話相手周辺の画像を撮影するもので、撮影部の一例である。本実施の形態1では、カメラ102は、対話ロボット200の鼻の位置に配置されている。ただし、カメラ102の配置位置はこれに限定されない。
発話制御部108は、音声認識部107により対話相手の発話音声が音声認識された場合、対話相手の発話音声に対する応答文を生成する。例えば、発話制御部108は、対話相手の発話内容と、これに対する応答文と、を予め対応付けたデータベースを保持し、このデータベースを用いて、対話相手の発話内容に応じた応答文を生成することが考えられる。しかし、応答文の生成方法は、本発明の本質的なものではなく、周知な種々の方法を利用することができる。
スピーカ109は、発話制御部108により生成された応答文を音声出力する。
続いて、本実施の形態1の動作について説明する。図6は、本実施の形態1に係る音声対話装置100における対話ロボット200の目の制御に関連する動作例を示すフローチャートである。
上述のように、本実施の形態1に係る音声対話装置100は、表示パネル106に対話ロボット200の目を表示することとし、表示パネル106に表示される対話ロボット200の目の視線を対話相手の顔の位置に向ける。従って、対話ロボット200の目の視線を対話相手に向ける際に、モータの駆動音が発生することがないため、音声対話を妨害することなく、対話ロボット200の目の視線を対話相手に向けることができる。
実施の形態1は、表示パネル106に表示される対話ロボット200の目の視線を、対話相手の顔の位置に向けていた。
本実施の形態2は、対話相手の目の位置が認識された場合には、表示パネル106に表示される対話ロボット200の目の視線を、対話相手の目の位置に向けるものである。
まず、本実施の形態2の構成について説明する。図7は、本実施の形態2に係る音声対話装置100Aの構成例を示すブロック図である。なお、本実施の形態2に係る音声対話装置100Aは、実施の形態1に係る音声対話装置100と同様に、例えば、図2に示される対話ロボット200に組み込まれるものとする。
続いて、本実施の形態2の動作について説明する。図8は、本実施の形態2に係る音声対話装置100Aにおける対話ロボット200の目の制御に関連する動作例を示すフローチャートである。図8に示される処理は、図6を参照して説明した実施の形態1における処理と比較して、ステップS103の代わりに、ステップS201〜S206を設けた点が異なっている。
上述のように、本実施の形態2に係る音声対話装置100Aは、対話相手の目の位置が認識された場合、対話相手の目の視線が対話ロボット200を向いていれば、表示パネル106に表示される対話ロボット200の目の視線を、対話相手の目の位置に向ける。また、音声対話装置100Aは、対話相手の目の視線が対話ロボット200から外れていれば、表示パネル106に表示される対話ロボット200の目の視線を、その外れた方向に所定時間向け、その後、対話相手の目の位置に向ける。従って、対話相手がよそ見をした場合など、何かに気を取られて対話ロボット200から視線が外れている場合には、対話ロボット200の目の視線を、その外れた方向に向けることができる。また、対話相手の目が、顔の向きにかかわらず、対話ロボット200の方を向いていれば、対話ロボット200の目の視線を、対話相手の目の位置に向け、対話相手の目をしっかり見ることができる。これにより、対話ロボット200が対話相手を見ていることを強調できるため、対話相手に対し、より動物的な相手と対話している感覚を与えることができる。また、対話相手に対し、対話ロボット200が対話相手の振る舞いを認識していることを示すことができる。そのため、対話相手は、対話ロボット200に対する親近感や愛着を持つことができるようになる。
その他の効果は、実施の形態1と同様である。
カメラ102は、対話相手及び対話相手周辺の画像を撮影するものであるため、カメラ102により撮影された撮影画像には、対話相手以外の人物や物体(ボールなど)が移動物体として写りこむ場合がある。
本実施の形態3は、撮影画像に対話相手以外の移動物体が写りこんだ場合には、表示パネル106に表示される対話ロボット200の目の視線を、その移動物体を認識した位置に一時的に向けるものである。
まず、本実施の形態3の構成について説明する。図9は、本実施の形態3に係る音声対話装置100Bの構成例を示すブロック図である。なお、本実施の形態3に係る音声対話装置100Bは、実施の形態1に係る音声対話装置100と同様に、例えば、図2に示される対話ロボット200に組み込まれるものとする。
続いて、本実施の形態3の動作について説明する。図12は、本実施の形態3に係る音声対話装置100Bにおける対話ロボット200の目の制御に関連する動作例を示すフローチャートである。図12に示される処理は、図6を参照して説明した実施の形態1における処理と比較して、ステップS103の代わりに、ステップS301〜S304を設けた点が異なっている。
上述のように、本実施の形態3に係る音声対話装置100Bは、撮影画像に対話相手以外の移動物体が写りこんでいる場合、その移動物体の位置を認識し、表示パネル106に表示される対話ロボット200の目の視線を、その移動物体の位置に所定時間向け、その後、対話相手の顔の位置に戻す。従って、対話ロボット200は、対話相手を見る時間を極端に低下させることなく、対話相手の周辺環境の変化に対応して、視線が動くという動物的な演出をすることができる。そのため、対話相手に対し、より動物的な相手と対話している感覚を与えることができる。また、対話相手に対し、対話相手の周辺環境を認識していることを示すことができる。
その他の効果は、実施の形態1と同様である。
200 対話ロボット
101 マイク
102 カメラ
103 対話判定部
104,104A,104B 環境認識部
105 目制御部
106 表示パネル
107 音声認識部
108 発話制御部
109 スピーカ
110 顔認識部
111 目認識部
112 移動物体認識部
Claims (6)
- 対話ロボットに組み込まれる音声対話装置であって、
画像を撮影する撮影部と、
前記画像に写る対話相手の位置を認識する環境認識部と、
前記対話ロボットの目の位置に配置され、前記対話ロボットの目を表示する表示部と、
前記表示部に表示される前記対話ロボットの目の視線を、前記対話相手を認識した位置に向ける目制御部と、を備え、
前記環境認識部は、
前記画像に写る対話相手の顔の位置を認識する第1認識部と、
前記画像に写る対話相手の目の位置を認識する第2認識部と、を含み、
前記目制御部は、
前記第2認識部により前記対話相手の目の位置が認識された場合、前記対話相手の目の視線が前記対話ロボットに向いていれば、前記表示部に表示される前記対話ロボットの目の視線を、前記対話相手の目の位置に向け、
前記第2認識部により前記対話相手の目の位置が認識されない場合、前記表示部に表示される前記対話ロボットの目の視線を、前記対話相手の顔の位置に向ける、音声対話装置。 - 前記目制御部は、
前記第2認識部により前記対話相手の目の位置が認識された場合、前記対話相手の目の視線が前記対話ロボットから外れていれば、前記表示部に表示される前記対話ロボットの目の視線を、該外れた方向に所定時間向け、その後、前記対話相手の目の位置に向ける、請求項1に記載の音声対話装置。 - 前記目制御部は、
前記対話相手の移動時に前記画像の所定割合以上の領域で単位時間内に変化が生じていた場合には、前記対話相手の移動時に前記画像の前記所定割合以上の領域で単位時間内に変化が生じていない場合と比べて、前記表示部に表示される前記対話ロボットの目の視線を前記対話相手を認識した位置に向ける速度を速くする、請求項1又は2に記載の音声対話装置。 - 前記環境認識部は、
前記画像に前記対話相手以外の移動物体が写りこんでいる場合、前記画像に写る前記移動物体の位置を認識する第3認識部をさらに含み、
前記目制御部は、
前記画像に前記移動物体が写りこんでいる場合、前記表示部に表示される前記対話ロボットの目の視線を、前記移動物体を認識した位置に所定時間向け、その後、前記対話相手を認識した位置に戻す、請求項1から3のいずれか1項に記載の音声対話装置。 - 前記目制御部は、
前記移動物体が新たに写りこんだ場合、及び、前記移動物体の移動時に前記画像の所定割合以上の領域で単位時間内に変化が生じていた場合には、前記移動物体の移動時に前記画像の前記所定割合以上の領域で単位時間内に変化が生じていない場合と比べて、前記表示部に表示される前記対話ロボットの目の視線を前記移動物体を認識した位置に向ける速度を速くする、請求項4に記載の音声対話装置。 - 対話ロボットに組み込まれる音声対話装置の制御方法であって、
画像を撮影するステップと、
前記画像に写る対話相手の位置を認識する認識ステップと、
前記対話ロボットの目の位置に配置された表示部に表示される前記対話ロボットの目の視線を、前記対話相手を認識した位置に向ける目制御ステップと、を含み、
前記認識ステップは、
前記画像に写る対話相手の顔の位置を認識する第1認識ステップと、
前記画像に写る対話相手の目の位置を認識する第2認識ステップと、を含み、
前記目制御ステップでは、
前記第2認識ステップにより前記対話相手の目の位置が認識された場合、前記対話相手の目の視線が前記対話ロボットに向いていれば、前記表示部に表示される前記対話ロボットの目の視線を、前記対話相手の目の位置に向け、
前記第2認識ステップにより前記対話相手の目の位置が認識されない場合、前記表示部に表示される前記対話ロボットの目の視線を、前記対話相手の顔の位置に向ける、制御方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016196557A JP6443419B2 (ja) | 2016-10-04 | 2016-10-04 | 音声対話装置及びその制御方法 |
US15/676,247 US10464214B2 (en) | 2016-10-04 | 2017-08-14 | Voice interaction device and control method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016196557A JP6443419B2 (ja) | 2016-10-04 | 2016-10-04 | 音声対話装置及びその制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018060322A JP2018060322A (ja) | 2018-04-12 |
JP6443419B2 true JP6443419B2 (ja) | 2018-12-26 |
Family
ID=61759001
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016196557A Active JP6443419B2 (ja) | 2016-10-04 | 2016-10-04 | 音声対話装置及びその制御方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10464214B2 (ja) |
JP (1) | JP6443419B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108733215A (zh) * | 2018-05-17 | 2018-11-02 | 华南农业大学 | 一种拟人化虚拟助手注视方向控制方法 |
JP2021024093A (ja) * | 2019-07-31 | 2021-02-22 | キヤノン株式会社 | 画像形成装置、画像形成装置の制御方法ならびにコンピュータプログラム |
GB2598333B (en) * | 2020-08-26 | 2023-09-20 | Advanced Risc Mach Ltd | A method and head-mounted unit for assisting a user |
CN112936245B (zh) * | 2021-02-05 | 2023-07-18 | 华南理工大学 | 一种类人机器人头部和眼睛注视控制装置及方法 |
CN116564005B (zh) * | 2023-07-11 | 2023-09-08 | 深圳市瑞凯诺科技有限公司 | 智能充电桩的无线启动方法及系统 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0983856A (ja) | 1995-09-07 | 1997-03-28 | Nippon Telegr & Teleph Corp <Ntt> | インテリジェントカメラ装置 |
JP4779226B2 (ja) | 2001-04-25 | 2011-09-28 | ソニー株式会社 | ロボット装置、並びに、画像記憶方法及び画像記憶装置、並びに、制御プログラム及び記録媒体 |
JP2002351305A (ja) | 2001-05-23 | 2002-12-06 | Apollo Seiko Ltd | 語学研修用ロボット |
JP2003205489A (ja) * | 2002-01-08 | 2003-07-22 | Matsushita Electric Ind Co Ltd | 人工目およびそれを用いたロボット |
JP3632099B2 (ja) | 2002-12-17 | 2005-03-23 | 独立行政法人科学技術振興機構 | ロボット視聴覚システム |
US20090030552A1 (en) | 2002-12-17 | 2009-01-29 | Japan Science And Technology Agency | Robotics visual and auditory system |
JP2005279895A (ja) | 2004-03-30 | 2005-10-13 | Advanced Telecommunication Research Institute International | ロボット |
JP2006289508A (ja) | 2005-04-05 | 2006-10-26 | Sony Corp | ロボット装置及びその表情制御方法 |
EP1941411B1 (en) | 2005-09-30 | 2011-09-14 | iRobot Corporation | Companion robot for personal interaction |
JP4751192B2 (ja) | 2005-12-12 | 2011-08-17 | 本田技研工業株式会社 | 移動ロボット |
JP5186723B2 (ja) * | 2006-01-05 | 2013-04-24 | 株式会社国際電気通信基礎技術研究所 | コミュニケーションロボットシステムおよびコミュニケーションロボットの視線制御方法 |
JP4565196B2 (ja) * | 2007-08-30 | 2010-10-20 | 株式会社国際電気通信基礎技術研究所 | コミュニケーションロボット |
JP2010112979A (ja) * | 2008-11-04 | 2010-05-20 | Advanced Telecommunication Research Institute International | インタラクティブ看板システム |
JP2012239557A (ja) * | 2011-05-17 | 2012-12-10 | Shain:Kk | ロボット玩具 |
JP5983159B2 (ja) | 2012-08-01 | 2016-08-31 | 富士通株式会社 | 視線制御装置、視線制御方法及び視線制御プログラム並びに端末装置 |
-
2016
- 2016-10-04 JP JP2016196557A patent/JP6443419B2/ja active Active
-
2017
- 2017-08-14 US US15/676,247 patent/US10464214B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20180096206A1 (en) | 2018-04-05 |
JP2018060322A (ja) | 2018-04-12 |
US10464214B2 (en) | 2019-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6443419B2 (ja) | 音声対話装置及びその制御方法 | |
US10083710B2 (en) | Voice control system, voice control method, and computer readable medium | |
WO2021027424A1 (zh) | 图像采集的控制方法及采集终端 | |
US9423870B2 (en) | Input determination method | |
US20180137861A1 (en) | Information processing apparatus, information processing method, and program | |
WO2017104207A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20130021459A1 (en) | System and method for enhancing speech activity detection using facial feature detection | |
US20170178356A1 (en) | System and method to modify display of augmented reality content | |
WO2016132729A1 (ja) | ロボット制御装置、ロボット、ロボット制御方法およびプログラム記録媒体 | |
CN107430856B (zh) | 信息处理系统和信息处理方法 | |
JP2009166184A (ja) | ガイドロボット | |
KR20190121758A (ko) | 정보 처리 장치, 정보 처리 방법, 및 프로그램 | |
JP2023027060A (ja) | ロボット、ロボットの制御方法及びプログラム | |
WO2021085242A1 (ja) | 情報処理装置、及びコマンド処理方法 | |
US10464215B2 (en) | Voice interaction device and control method therefor | |
CN111768785A (zh) | 一种智能手表的控制方法及智能手表 | |
KR102613040B1 (ko) | 영상 통화 방법 및 이를 구현하는 로봇 | |
KR102288060B1 (ko) | 피사체의 소리를 수신하는 방법 및 이를 구현하는 전자장치 | |
JP2016180778A (ja) | 情報処理システムおよび情報処理方法 | |
JP2019072787A (ja) | 制御装置、ロボット、制御方法、および制御プログラム | |
WO2018056169A1 (ja) | 対話装置、処理方法、プログラム | |
WO2023286775A1 (ja) | 音声認識装置、音声認識方法、音声認識プログラム、撮像装置 | |
US11400607B2 (en) | Image processing device, robot, image processing method, and recording medium | |
WO2023058393A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20240114236A1 (en) | Apparatus and method for controlling a robot photographer with semantic intelligence |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180814 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180815 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181011 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181030 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181112 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6443419 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |