JP2004034274A - Conversation robot and its operation method - Google Patents

Conversation robot and its operation method Download PDF

Info

Publication number
JP2004034274A
JP2004034274A JP2002198258A JP2002198258A JP2004034274A JP 2004034274 A JP2004034274 A JP 2004034274A JP 2002198258 A JP2002198258 A JP 2002198258A JP 2002198258 A JP2002198258 A JP 2002198258A JP 2004034274 A JP2004034274 A JP 2004034274A
Authority
JP
Japan
Prior art keywords
user
eyes
robot
conversation
recognizes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002198258A
Other languages
Japanese (ja)
Inventor
Masahito Takuhara
宅原 雅人
Ryota Hiura
日浦 亮太
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2002198258A priority Critical patent/JP2004034274A/en
Publication of JP2004034274A publication Critical patent/JP2004034274A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a conversation robot that talks more friendly with a user. <P>SOLUTION: For example, when the conversation robot 1 talks to the user, a user recognizer 33 recognizes the user, a face direction recognizer 34 (or a body direction recognizer 35) recognizes a front direction of a face (or a front direction of a body) of the recognized user, a front movement controller 36 moves the conversation robot 1 to the front of the user's face (or body) based on the recognized front direction of the face (or the body) of the user, an eye recognizer 37 recognizes the user's eyes at the moved front position, a neck and eye controller 38 controls a neck and eyes 17 of the robot toward a direction of the recognized user's eyes, and then a conversation processor 39 talks to the user. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、親近感のある会話をロボットが行うための技術に関する。
【0002】
【従来の技術】
ロボットが人と会話する場合、親和性の高いコミュニケーションを成立させるためには、ロボットが人の目を見て話す必要があり、早稲田大学の”ROBITA”等のロボットでは、ロボットの首と目の方向を制御して人の目を見ながら会話を行うようにされている。
【0003】
【発明が解決しようとする課題】
しかし、ロボットに人間らしいコミュニケーション(親近感のある会話)を成立させるためには、ロボットの目が人の目を見るだけでは、不十分である。
【0004】
従って、本発明の課題は、ロボットと人との間で従来よりも親近感のある会話を成立させるための技術を提供することである。
【0005】
【課題を解決するための手段】
発明者は、より親近感のある会話を成立させるには、ロボットが人の目を見るだけでなく、ロボットの所有者や操作者などの話し相手(以下、ユーザ)の正面位置に立って会話を行う必要であることに気づいて、以下に示す課題解決手段を案出した。
【0006】
第1発明は、ユーザの顔または体の正面位置に移動し、ユーザの目を見て会話を行う会話ロボットである。
【0007】
第2発明は、第1発明の会話ロボットのうち、ユーザの顔の正面位置に移動し、ユーザの目を見て会話を行うものであり、ユーザを認識するユーザ認識手段と、ユーザの顔正面方向を認識する顔方向認識手段と、ロボット本体をユーザの顔の正面に移動する正面移動制御手段と、ユーザの目を認識する目認識手段と、ロボットの首と目をユーザの目の方向に制御する首目制御手段と、ユーザと会話を行う会話処理手段とを備えることを特徴とする。
【0008】
第3発明は、第1発明の会話ロボットのうち、ユーザの体の正面位置に移動し、ユーザの目を見て会話を行うものであり、ユーザを認識するユーザ認識手段と、ユーザの体正面方向を認識する体方向認識手段と、ロボット本体をユーザの体の正面に移動する正面移動制御手段と、ユーザの目を認識する目認識手段と、ロボットの首と目をユーザの目の方向に制御する首目制御手段と、ユーザと会話を行う会話処理手段とを備えることを特徴とする。
【0009】
第4発明は、第2発明の会話ロボット側からユーザに対して話し掛ける場合の動作方法であり、ユーザを認識し、ユーザの顔正面方向を認識し、ユーザの顔の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、会話を開始することを特徴とする。
【0010】
第5発明は、第2発明の会話ロボットに対してユーザ側から話し掛けてくる場合の動作方法であり、ユーザを認識し、ユーザの顔正面方向を認識し、ユーザの顔の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、ユーザに返事を行うことを特徴とする。
【0011】
第6発明は、第3発明の会話ロボット側からユーザに対して話し掛ける場合の動作方法であり、ユーザを認識し、ユーザの体正面方向を認識し、ユーザの体の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、会話を開始することを特徴とする。
【0012】
第7発明は、第3発明の会話ロボットに対してユーザ側から話し掛けてくる場合の動作方法であり、ユーザを認識し、ユーザの体正面方向を認識し、ユーザの体の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、ユーザに返事を行うことを特徴とする。
【0013】
第8発明は、一般の会話ロボット側からユーザに対して話し掛ける場合の動作方法であり、ユーザを認識し、ユーザの顔正面方向を認識し、ユーザの顔の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、会話を開始することを特徴とする。
【0014】
第9発明は、一般の会話ロボット側からユーザに対して話し掛ける場合の別の動作方法であり、ユーザを認識し、ユーザの顔正面方向を認識し、ユーザの顔の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、会話を開始することを特徴とする。
【0015】
第10発明は、一般の会話ロボットに対してユーザ側から話し掛けてくる場合の動作方法であり、ユーザを認識し、ユーザの顔正面方向を認識し、ユーザの顔の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、ユーザに返事を行うことを特徴とする。
【0016】
第11発明は、一般の会話ロボットに対してユーザ側から話し掛けてくる場合の別の動作方法であり、ユーザを認識し、ユーザの体正面方向を認識し、ユーザの体の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、ユーザに返事を行うことを特徴とする。
【0017】
【発明の実施の形態】
以下、本発明の実施の形態を、図面を参照しながら説明する。
【0018】
図1に会話ロボット1の外観を示し、ロボット本体11は頭部12と胸部13と胴部(台車部)14と左右の腕部15とを有する人間を模したものであり、頭部12と胸部13間の首関節や、胸部13と腕部15間の肩関節、腕部15内の肘関節、手首関節等が図示しない駆動機構により回動可能であるとともに、胴部14に装備された左右の走行用車輪16が図示しない駆動機構により操舵及び走行可能であって、頭部12には2つの目17が設けられている。
【0019】
図1の会話ロボット1は、作業空間をバッテリ駆動により自律的に移動するように構成されており、一般家庭等の屋内を作業空間として人間と共存し、例えば、一般家庭内でロボットの所有者や操作者などのユーザの生活を補助・支援・介護するために用いられる。そのため、会話ロボット1は、内蔵のCPU(コンピュータ)及び各種のセンサにより、ユーザと会話する機能の他、ユーザの行動を見守ったり、ユーザの行動を補助したり、ユーザと一緒に行動したりする機能を備えている。会話ロボット1の形状としては、愛玩用に動物を模したものなど、種々考えられる。
【0020】
この会話ロボット1は、詳細は後述するが、ユーザ(ロボットの所有者や操作者などの話し相手)の顔または体の正面に胴部14を移動し、この正面位置で首と目17をユーザの目に向け、ユーザの目を見て会話を行うことができるようにされている。これにより、ユーザからすると、会話ロボット1が自分の正面に立ち、更に自分の目を見ながら会話を行ってくれるため、従来に比べてより親近感のある会話が成立する。
【0021】
本例では、目17の瞳も図示しない駆動機構により移動可能にしている。
【0022】
会話ロボット1はCPUを用いた制御部を持ち、頭部12には、2つの目17の奥にそれぞれカメラ17aが装着されており、また、2つのマイクロホン18が頭部12に装着されている。また、胸部13の中央部に音量・音源方向センサと焦電型赤外線センサからなる人検知センサ19、左右にスピーカ20aが装着されている。更に、胸部13の中央部に画像ディスプレイ20aが装着され、胴部14に超音波式障害物センサ21及びレーザ式障害物センサ22が装着されている。キーボード及びタッチセンサ等が装着されることもある。
【0023】
カメラ17aはユーザや屋内を撮影してその画像を制御部(図2中の符号31参照)に出力し、マイクロホン18はユーザの音声や電話のベル、呼び鈴、テレビの音などの生活音を取り込んで制御部に出力し、人検知センサ19はユーザの有無を検出して制御部に出力する。スピーカ20aはマイクロホン18とともにユーザとの会話に用いられ、画像ディスプレイ20bはユーザに対する情報提供に用いられる。キーボードやタッチセンサはユーザ用のデータ入力機器であり、ユーザの生活パターンデータを入力したり、ユーザの意思を入力するために用いられる。スピーカ20aはユーザに対する情報提供にも用いられる。制御部には、所定期間にわたるカレンダ及び現在の年月日及び時刻を計時するカレンダクロック(図2中の符号24参照)が備えられている。
【0024】
図2に示すように、制御部31には、キーボード等のデータ入力機器23と、カメラ17a、マイクロホン18、人検知センサ19及び障害物センサ21、22等のユーザの生活パターンを常時モニタする外界センサと、カレンダクロック24といった内界センサとにより、会話ロボット1の自己位置に関する情報と、ユーザの位置に関する情報と、ユーザの行動に関する情報とが入力される。
【0025】
制御部31は、自己位置認識部32と、ユーザ認識部33と、顔方向認識部34あるいは体方向認識部35と、正面移動制御部36と、目認識部37と、首目制御部38と、会話処理部39と、データベース(記憶手段)40と、生活パターンデータ処理部41とを有している。顔方向認識部34と体方向認識部35は、少なくとも一方を有しておれば良い。
【0026】
自己位置認識部32は、カメラ17aで撮影した画像情報に基づいて会話ロボット1自身の位置及び方位(向き、姿勢)を認識する。
【0027】
ユーザ認識部33は、カメラ17aで撮影した画像情報及び/またはマイクロホン18で取り込んだ音声からユーザ個人の認識を行い、また、カメラ17aと人検知センサ19の検出結果からユーザの位置、向き、姿勢、活動量を認識する。
【0028】
顔方向認識部34は、ユーザ認識部33で認識したユーザの顔正面方向をカメラ17aで撮影した画像情報から認識する。顔正面方向の認識技術としては、特開2001−243266号公報に開示されたものなど、公知の技術を使用できる。
【0029】
体方向認識部35は、ユーザ認識部33で認識したユーザの体正面方向をカメラ17aで撮影した画像情報から認識する。例えば、図3に示すよう、体方向認識部35はデータベース40と、人体シルエット抽出部42と、マッチング処理部43と、人体正面方向推定部44とで構成される。各部の動作を以下に示す。
(1) データベース40には、3次元の人体モデルから回転角が異なる複数の2次元射影画像シルエットを予め作成し、これを格納している。また、データベース40には、回転角が同じでも姿勢が異なる2次元射影画像シルエットが格納されている。
(2) 人体シルエット抽出部42は、カメラ17aで取得した画像情報から背景画像との差分により、または、エッジ検出により人体のシルエットを抽出する。
(3) マッチング処理部43は、人体シルエット抽出部42で抽出した人体のシルエットとデータベース40に格納されている複数の2次元射影画像シルエットとのマッチング処理を行う。
(4) 人体正面方向推定部44は、マッチング処理部43の処理結果から、抽出した人体シルエットに最もマッチングする2次元射影画像シルエットが判るので、この最もマッチングする2次元射影画像シルエットの回転角から、ユーザの体正面方向を推定し、これを体正面方向認識結果とする。
【0030】
正面移動制御部36は、会話ロボット1の可動部を制御する駆動制御部45の一部であり、走行用車輪16の駆動部25を制御することにより、ロボット本体11、特にその胸部13及び胴部14をユーザの顔または体の正面位置に移動する。言い換えれば、会話ロボット1が顔方向認識部34を有している場合は、顔方向認識部34で認識した顔正面方向に基づいて、ユーザの顔の正面位置にロボット本体11を移動させ、体方向認識部35を有している場合は、体方向認識部35で認識した体正面方向に基づいて、ユーザの体の正面位置にロボット本体11を移動させる。
【0031】
目認識部37は、正面移動制御部36によりロボット本体11が正面位置に移動した状態で、ユーザの目を認識する。目の認識技術としては、公知の技術を使用でき、例えば、カメラ17aで取得した画像情報から2つの楕円部分を抽出し、それら間隔や大きさ、色を調べるもとにより、目を認識することができる。
【0032】
首目制御部38は、会話ロボット1の可動部を制御する駆動制御部45の一部であり、首関節の駆動部26を制御することにより、会話ロボット1の首と目17を、目認識部37で認識したユーザの目の方向に制御する。
【0033】
目17の瞳が可動である場合は、首目制御部38は目17の駆動部27を制御することにより、会話ロボット1の目17の瞳を、目認識部37で認識したユーザの目の方向に制御する。
【0034】
会話処理部39は、ユーザと会話を行うものであり、マイクロフォン18で取り込んだ音声からユーザが話し掛ける発言内容等の音声認識機能と、ユーザへの話し掛けや、質問、返事等の各種会話用音声波形を作ってスピーカ20aを駆動する発言機能を有している。
【0035】
データベース40は、前述した回転角、姿勢が異なる複数の2次元射影画像シルエットを記憶する他、ユーザとの会話用やユーザへの話し掛け用の各種音声データ、ユーザとの会話時やユーザへの話し掛け時の身振り動作のデータ、ユーザの生活情報(ユーザの居住に関する部屋の間取りや家具の配置、ユーザ個人の日常の生活パターン、ユーザの趣味、健康状態など)を記憶している。ユーザの生活情報には、必要に応じて文字列や映像、音声などのキーワードが付される。生活パターンのデータとしては、起床、就寝、食事、薬服用、散歩、自由時間、入浴などの行動に関するイベントが上げられ、これらのイベントが時間データとともにタイムスケジュールとして記憶される。
【0036】
生活パターンデータ処理部41は、ユーザがデータ入力機器23から直接入力した生活情報をキーワードを付してデータベースに蓄積したり、カメラ17aやマイクロホン18、人検知センサ19で取得した音声認識結果などユーザの各種情報を処理することで一つ一つの生活情報にキーワードやその日時を付してデータベースに蓄積する。更に、生活パターンデータ処理部41は、ユーザからの指示や話し掛けに応じて、あるいは、時刻などに応じて、これに対応する音声データをデータベース40から選択し、会話処理部39に与える。
【0037】
次に、図4〜図7を参照して、会話ロボット1の動作方法を説明する。
【0038】
[ロボット側から会話を開始する場合の動作方法:その1]
図4に示す動作手順は、顔方向認識部34を有する会話ロボットにおいて、ロボット側からユーザに対して会話を開始する場合の動作方法を示している。
即ち、図4に示すように、
(1) まず、話し掛けるべきユーザをユーザ認識部33で認識する(ステップS1参照)。
(2) 次に、ユーザ認識部33で認識したユーザの顔正面方向を顔方向認識部34で認識する(ステップS2参照)。
(3) 顔方向認識部34で認識したユーザの顔正面方向に基づいて、正面移動制御部36で会話ロボット1をユーザの顔の正面に移動する(ステップS3参照)。
(4) 移動した正面位置にて、ユーザの目を目認識部37で認識する(ステップS4参照)。
(5) 目認識部37で認識したユーザの目の方向に、首目制御部38でロボットの首と目17を制御する(ステップS5参照)。
(6) その後、会話処理部39でユーザに話し掛け、会話を開始する(ステップS6参照)。
【0039】
この結果、会話ロボット1がユーザの顔の正面前に立ち、更に自分の目を見ながら会話を開始してくれるため、より親近感のある会話が成立する。
【0040】
[ロボット側から会話を開始する場合の動作方法:その2]
図5に示す動作手順は、体方向認識部35を有する会話ロボットにおいて、ロボット側からユーザに対して会話を開始する場合の動作方法を示している。
即ち、図5に示すように、
(1) まず、話し掛けるべきユーザをユーザ認識部33で認識する(ステップS11参照)。
(2) 次に、ユーザ認識部33で認識したユーザの体正面方向を体方向認識部35で認識する(ステップS12参照)。
(3) 体方向認識部35で認識したユーザの体正面方向に基づいて、正面移動制御部36で会話ロボット1をユーザの体の正面に移動する(ステップS13参照)。
(4) 移動した正面位置にて、ユーザの目を目認識部37で認識する(ステップS14参照)。
(5) 目認識部37で認識したユーザの目の方向に、首目制御部38でロボットの首と目17を制御する(ステップS15参照)。
(6) その後、会話処理部39でユーザに話し掛け、会話を開始する(ステップS16参照)。
【0041】
この結果、会話ロボット1がユーザの体の正面前に立ち、更に自分の目を見ながら会話を開始してくれるため、より親近感のある会話が成立する。
【0042】
ここで、ユーザの顔の方向は、体の方向に比べて細かく速く動くため、図4による動作方法では、顔正面方向を認識して移動しても、会話ロボット1が目標位置に着いた時点でユーザの顔は別な方向に向いてしまっている可能性が高い。これに対して、平均的には顔は体の正面方向を向いていると考えられるため、図5による動作方法のように、体正面方向に会話ロボット1が移動する方が、顔正面に移動するよりも、よりロバスト(確実)にユーザの正面位置に立つことができる。
【0043】
[ユーザ側から会話を開始する場合の動作方法:その1]
図6に示す動作手順は、顔方向認識部34を有する会話ロボットにおいて、ユーザ側からロボットに対して会話を開始する場合の動作方法を示している。
即ち、図6に示すように、
(1) まず、話し掛けてきたユーザをユーザ認識部33で認識する(ステップS21参照)。
(2) 次に、ユーザ認識部33で認識したユーザの顔正面方向を顔方向認識部34で認識する(ステップS22参照)。
(3) 顔方向認識部34で認識したユーザの顔正面方向に基づいて、正面移動制御部36で会話ロボット1をユーザの顔の正面に移動する(ステップS23参照)。
(4) 移動した正面位置にて、ユーザの目を目認識部37で認識する(ステップS24参照)。
(5) 目認識部37で認識したユーザの目の方向に、首目制御部38でロボットの首と目17を制御する(ステップS25参照)。
(6) その後、会話処理部39でユーザに返事を行う(ステップS26参照)。
【0044】
この結果、会話ロボット1がユーザの顔の正面前に立ち、更に自分の目を見ながら返事をしてくれるため、より親近感のある会話が成立する。
【0045】
[ユーザ側から会話を開始する場合の動作方法:その2]
図7に示す動作手順は、体方向認識部35を有する会話ロボットにおいて、ユーザ側からロボットに対して会話を開始する場合の動作方法を示している。
即ち、図7に示すように、
(1) まず、話し掛けてきたユーザをユーザ認識部33で認識する(ステップS31参照)。
(2) 次に、ユーザ認識部33で認識したユーザの体正面方向を体方向認識部35で認識する(ステップS32参照)。
(3) 体方向認識部35で認識したユーザの体正面方向に基づいて、正面移動制御部36で会話ロボット1をユーザの体の正面に移動する(ステップS33参照)。
(4) 移動した正面位置にて、ユーザの目を目認識部37で認識する(ステップS34参照)。
(5) 目認識部37で認識したユーザの目の方向に、首目制御部38でロボットの首と目17を制御する(ステップS35参照)。
(6) その後、会話処理部39でユーザに返事を行う(ステップS36参照)。
【0046】
この結果、会話ロボット1がユーザの体の正面前に立ち、更に自分の目を見ながら返事をしてくれるため、より親近感のある会話が成立する。
【0047】
ここで、ユーザの顔の方向は、体の方向に比べて細かく速く動くため、図6による動作方法では、顔正面方向を認識して移動しても、会話ロボット1が目標位置に着いた時点でユーザの顔は別な方向に向いてしまっている可能性が高い。これに対して、平均的には顔は体の正面方向を向いていると考えられるため、図7による動作方法のように、体正面方向に会話ロボット1が移動する方が、顔正面に移動するよりも、よりロバストにユーザの正面位置に立つことができる。
【0048】
【発明の効果】
第1発明は、ユーザの顔または体の正面位置に移動し、ユーザの目を見て会話を行う会話ロボットであるので、ユーザからすると、会話ロボットが自分の正面に立ち、更に自分の目を見ながら会話を行ってくれるため、従来に比べてより親近感のある会話が成立する。
【0049】
第2発明は、第1発明の会話ロボットにおいて、ユーザを認識するユーザ認識手段と、ユーザの顔正面方向を認識する顔方向認識手段と、ロボット本体をユーザの顔の正面に移動する正面移動制御手段と、ユーザの目を認識する目認識手段と、ロボットの首と目をユーザの目の方向に制御する首目制御手段と、ユーザと会話を行う会話処理手段とを備えるので、会話ロボットがユーザの顔の正面前に立ち、更に自分の目を見ながら会話をしてくれるため、より親近感のある会話が成立する。
【0050】
第3発明は、第1発明の会話ロボットにおいて、ユーザを認識するユーザ認識手段と、ユーザの体正面方向を認識する体方向認識手段と、ロボット本体をユーザの体の正面に移動する正面移動制御手段と、ユーザの目を認識する目認識手段と、ロボットの首と目をユーザの目の方向に制御する首目制御手段と、ユーザと会話を行う会話処理手段とを備えるので、会話ロボットがユーザの体の正面前に立ち、更に自分の目を見ながら会話をしてくれるため、より親近感のある会話が成立する。また、会話ロボットがユーザの顔正面に移動するよりも、よりロバストにユーザの正面位置に立つことができる。
【0051】
第4発明は、第2発明の会話ロボット側からユーザに対して話し掛ける場合の動作方法であり、ユーザを認識し、ユーザの顔正面方向を認識し、ユーザの顔の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、会話を開始するので、会話ロボットがユーザの顔の正面前に立ち、更に自分の目を見ながら会話を開始してくれるため、より親近感のある会話が成立する。
【0052】
第5発明は、第2発明の会話ロボットに対してユーザ側から話し掛けてくる場合の動作方法であり、ユーザを認識し、ユーザの顔正面方向を認識し、ユーザの顔の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、ユーザに返事を行うので、より親近感のある会話が成立する。
【0053】
第6発明は、第3発明の会話ロボット側からユーザに対して話し掛ける場合の動作方法であり、ユーザを認識し、ユーザの体正面方向を認識し、ユーザの体の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、会話を開始するので、より親近感のある会話が成立する。また、会話ロボットがユーザの顔正面に移動するよりも、よりロバストにユーザの正面位置に立つことができる。
【0054】
第7発明は、第3発明の会話ロボットに対してユーザ側から話し掛けてくる場合の動作方法であり、ユーザを認識し、ユーザの体正面方向を認識し、ユーザの体の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、ユーザに返事を行うので、より親近感のある会話が成立する。また、会話ロボットがユーザの顔正面に移動するよりも、よりロバストにユーザの正面位置に立つことができる。
【0055】
第8発明は、一般の会話ロボット側からユーザに対して話し掛ける場合の動作方法であり、ユーザを認識し、ユーザの顔正面方向を認識し、ユーザの顔の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、会話を開始するので、より親近感のある会話が成立する。
【0056】
第9発明は、一般の会話ロボット側からユーザに対して話し掛ける場合の別の動作方法であり、ユーザを認識し、ユーザの顔正面方向を認識し、ユーザの顔の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、会話を開始するので、より親近感のある会話が成立する。また、会話ロボットがユーザの顔正面に移動するよりも、よりロバストにユーザの正面位置に立つことができる。
【0057】
第10発明は、一般の会話ロボットに対してユーザ側から話し掛けてくる場合の動作方法であり、ユーザを認識し、ユーザの顔正面方向を認識し、ユーザの顔の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、ユーザに返事を行うので、より親近感のある会話が成立する。
【0058】
第11発明は、一般の会話ロボットに対してユーザ側から話し掛けてくる場合の別の動作方法であり、ユーザを認識し、ユーザの体正面方向を認識し、ユーザの体の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、ユーザに返事を行うので、より親近感のある会話が成立する。また、会話ロボットがユーザの顔正面に移動するよりも、よりロバストにユーザの正面位置に立つことができる。
【図面の簡単な説明】
【図1】本発明の実施例に係る会話ロボットの外観を示す図。
【図2】本発明の実施例に係る会話ロボットの制御系を示す図。
【図3】体方向認識部の構成例を示す図。
【図4】ロボット側から会話を開始する場合の動作方法(その1)を示す図。
【図5】ロボット側から会話を開始する場合の動作方法(その2)を示す図。
【図6】ユーザ側から会話を開始する場合の動作方法(その1)を示す図。
【図7】ユーザ側から会話を開始する場合の動作方法(その2)を示す図。
【符号の説明】
1 会話ロボット
11 ロボット本体
12 頭部
13 胸部
14 胴部
15 腕部
16 走行用車輪
17 目
17a カメラ
18 マイクロホン
19 人検知センサ
20a スピーカ
20b 画像ディスプレイ
21、22 障害物センサ
23 データ入力機器
24 カレンダクロック
25 車輪用駆動部
26 首関節用駆動部
27 瞳用駆動部
31 制御部
32 自己位置認識部
33 ユーザ認識部
34 顔方向認識部
35 体方向認識部
36 正面移動制御部
37 目認識部
38 首目制御部
39 会話処理部
40 データベース(記憶手段)
41 生活パターンデータ処理部
42 人体シルエット抽出部
43 マッチング処理部
44 人体正面方向推定部
45 駆動制御部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technology for a robot to have a close conversation with each other.
[0002]
[Prior art]
When a robot talks with a person, it is necessary for the robot to look at the person's eyes in order to establish high-affinity communication. For a robot such as Waseda University's "ROBITA", the robot's neck and eyes The conversation is controlled while controlling the direction and looking at the human eyes.
[0003]
[Problems to be solved by the invention]
However, it is not enough for the eyes of the robot to look at the human eyes in order for the robot to establish human-like communication (conversation with a close feeling).
[0004]
Accordingly, it is an object of the present invention to provide a technique for establishing a more intimate conversation between a robot and a person than before.
[0005]
[Means for Solving the Problems]
In order to establish a more intimate conversation, the inventor not only looks at the human eyes, but also speaks while standing in front of the other party (hereinafter, the user) such as the robot owner or operator. Noting that it is necessary to do so, we devised the following problem solving means.
[0006]
A first invention is a conversation robot that moves to a position in front of a user's face or body and looks at the user's eyes to have a conversation.
[0007]
According to a second aspect of the present invention, the conversation robot of the first aspect moves to a position in front of the user's face and conducts a conversation by looking at the user's eyes. Face direction recognition means for recognizing the direction, front movement control means for moving the robot body to the front of the user's face, eye recognition means for recognizing the user's eyes, and the robot's neck and eyes in the direction of the user's eyes. It is characterized by comprising a head control means for controlling and a conversation processing means for conversing with the user.
[0008]
According to a third aspect of the present invention, in the conversation robot of the first aspect, the robot moves to the front position of the body of the user and performs conversation by looking at the eyes of the user. Body direction recognition means for recognizing the direction, front movement control means for moving the robot body to the front of the user's body, eye recognition means for recognizing the user's eyes, and the robot's neck and eyes in the direction of the user's eyes. It is characterized by comprising a head control means for controlling and a conversation processing means for conversing with the user.
[0009]
The fourth invention is an operation method in the case where the conversation robot of the second invention speaks to the user, and recognizes the user, recognizes the front direction of the user's face, moves to the front of the user's face, and moves the front position. And recognizes the eyes of the user, controls the neck and eyes of the robot in the direction of the eyes of the user, and then starts a conversation.
[0010]
The fifth invention is an operation method when the user speaks to the conversation robot of the second invention, and recognizes the user, recognizes the user's face front direction, moves to the front of the user's face, Recognizing the user's eyes at the front position, controlling the robot's neck and eyes in the direction of the user's eyes, and then responding to the user.
[0011]
The sixth invention is an operation method in the case where the conversation robot of the third invention speaks to the user, recognizes the user, recognizes the user's body front direction, moves to the front of the user's body, and moves the front position. And recognizes the eyes of the user, controls the neck and eyes of the robot in the direction of the eyes of the user, and then starts a conversation.
[0012]
A seventh invention is an operation method when the user speaks to the conversation robot of the third invention, and recognizes the user, recognizes the user's body front direction, moves to the front of the user's body, Recognizing the user's eyes at the front position, controlling the robot's neck and eyes in the direction of the user's eyes, and then responding to the user.
[0013]
The eighth invention is an operation method in a case where a general conversation robot speaks to the user, and recognizes the user, recognizes the user's face front direction, moves to the front of the user's face, and moves at the front position. Recognizing the user's eyes, controlling the robot's neck and eyes in the direction of the user's eyes, and then starting a conversation.
[0014]
The ninth invention is another operation method in a case where a general conversation robot talks to a user, recognizes the user, recognizes the user's face front direction, moves to the front of the user's face, and moves the front position. And recognizes the eyes of the user, controls the neck and eyes of the robot in the direction of the eyes of the user, and then starts a conversation.
[0015]
The tenth invention is an operation method when a user speaks to a general conversation robot, and recognizes the user, recognizes the front direction of the user's face, moves to the front of the user's face, And recognizes the eyes of the user, controls the neck and eyes of the robot in the direction of the eyes of the user, and then responds to the user.
[0016]
The eleventh invention is another operation method when the user speaks to a general conversation robot, recognizes the user, recognizes the user's body front direction, moves to the front of the user's body, Recognizing the user's eyes at the front position, controlling the robot's neck and eyes in the direction of the user's eyes, and then responding to the user.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0018]
FIG. 1 shows the appearance of a conversation robot 1. The robot body 11 simulates a human having a head 12, a chest 13, a torso (cart) 14, and left and right arms 15; A neck joint between the chest 13, a shoulder joint between the chest 13 and the arm 15, an elbow joint, a wrist joint, and the like in the arm 15 are rotatable by a drive mechanism (not shown) and are mounted on the torso 14. The left and right running wheels 16 can be steered and run by a drive mechanism (not shown), and the head 12 is provided with two eyes 17.
[0019]
The conversation robot 1 in FIG. 1 is configured to move autonomously in a work space by driving a battery, and coexists with a human as an indoor work space such as a general home. It is used for assisting, supporting, and nursing the lives of users such as operators and operators. For this reason, the conversation robot 1 uses the built-in CPU (computer) and various sensors to monitor the user's behavior, assist the user's behavior, and act together with the user, in addition to the function of conversation with the user. Has functions. Various shapes of the conversation robot 1 are conceivable, such as an animal model for pets.
[0020]
As will be described in detail later, the conversation robot 1 moves the body 14 to the front of the face or body of the user (the other party to talk to, such as the owner or operator of the robot), and places the neck and eyes 17 at the front position. It is possible to have a conversation while looking at the eyes of the user. Thereby, from the user's point of view, the conversation robot 1 stands in front of himself and conducts a conversation while looking at his own eyes, so that a conversation with a closer feeling than before is established.
[0021]
In this example, the pupil of the eye 17 is also movable by a drive mechanism (not shown).
[0022]
The conversation robot 1 has a control unit using a CPU. A camera 17a is mounted on the head 12 behind two eyes 17 and two microphones 18 are mounted on the head 12. . A human detection sensor 19 including a volume / sound source direction sensor and a pyroelectric infrared sensor is mounted at the center of the chest 13, and speakers 20a are mounted on the left and right. Further, an image display 20 a is mounted on the center of the chest 13, and an ultrasonic obstacle sensor 21 and a laser obstacle sensor 22 are mounted on the body 14. A keyboard and a touch sensor may be mounted.
[0023]
The camera 17a captures an image of the user or the room, and outputs the image to a control unit (see reference numeral 31 in FIG. 2). The microphone 18 captures the user's voice, a living bell such as a telephone bell, a doorbell, and a television sound. And the human detection sensor 19 detects the presence / absence of a user and outputs it to the control unit. The speaker 20a is used for conversation with the user together with the microphone 18, and the image display 20b is used for providing information to the user. The keyboard and the touch sensor are data input devices for the user, and are used for inputting the life pattern data of the user and inputting the intention of the user. The speaker 20a is also used for providing information to a user. The control unit is provided with a calendar for a predetermined period and a calendar clock (see reference numeral 24 in FIG. 2) for measuring the current date and time.
[0024]
As shown in FIG. 2, the control unit 31 includes a data input device 23 such as a keyboard, and an external world that constantly monitors a user's life pattern such as the camera 17a, the microphone 18, the human detection sensor 19, and the obstacle sensors 21 and 22. The sensor and the internal sensor such as the calendar clock 24 input information on the self-position of the conversation robot 1, information on the position of the user, and information on the behavior of the user.
[0025]
The control unit 31 includes a self-position recognition unit 32, a user recognition unit 33, a face direction recognition unit 34 or a body direction recognition unit 35, a front movement control unit 36, an eye recognition unit 37, and a neck / eye control unit 38. , A conversation processing unit 39, a database (storage means) 40, and a life pattern data processing unit 41. The face direction recognition unit 34 and the body direction recognition unit 35 may have at least one.
[0026]
The self-position recognition unit 32 recognizes the position and direction (direction, posture) of the conversation robot 1 based on image information captured by the camera 17a.
[0027]
The user recognizing unit 33 recognizes the user from the image information captured by the camera 17a and / or the voice captured by the microphone 18, and detects the position, orientation, and posture of the user based on the detection results of the camera 17a and the human detection sensor 19. Recognize the amount of activity.
[0028]
The face direction recognizing unit 34 recognizes the front face direction of the user recognized by the user recognizing unit 33 from image information captured by the camera 17a. As a technique for recognizing the front direction of the face, a known technique such as that disclosed in JP-A-2001-243266 can be used.
[0029]
The body direction recognition unit 35 recognizes the user's body front direction recognized by the user recognition unit 33 from image information captured by the camera 17a. For example, as shown in FIG. 3, the body direction recognizing unit 35 includes a database 40, a human body silhouette extracting unit 42, a matching processing unit 43, and a human body front direction estimating unit 44. The operation of each unit is described below.
(1) In the database 40, a plurality of two-dimensional projected image silhouettes having different rotation angles are created in advance from a three-dimensional human body model and stored. The database 40 stores two-dimensional projected image silhouettes having the same rotation angle but different postures.
(2) The human body silhouette extracting unit 42 extracts a human body silhouette from the image information acquired by the camera 17a by a difference from a background image or by edge detection.
(3) The matching processing unit 43 performs a matching process between the silhouette of the human body extracted by the human silhouette extracting unit 42 and a plurality of two-dimensional projected image silhouettes stored in the database 40.
(4) The human body front direction estimating unit 44 determines the two-dimensional projected image silhouette that best matches the extracted human body silhouette from the processing result of the matching processing unit 43. , The body front direction of the user is estimated, and this is used as the body front direction recognition result.
[0030]
The front movement control unit 36 is a part of the drive control unit 45 that controls the movable unit of the conversation robot 1, and controls the drive unit 25 of the traveling wheels 16 to control the robot body 11, particularly its chest 13 and torso. The unit 14 is moved to a position in front of the user's face or body. In other words, when the conversation robot 1 has the face direction recognition unit 34, the robot body 11 is moved to the front position of the user's face based on the face front direction recognized by the face direction recognition unit 34, When the robot has the direction recognition unit 35, the robot body 11 is moved to the front position of the user's body based on the body front direction recognized by the body direction recognition unit 35.
[0031]
The eye recognizing unit 37 recognizes the user's eyes while the robot body 11 is moved to the front position by the front movement control unit 36. As the eye recognition technology, a known technology can be used. For example, two elliptical portions are extracted from the image information acquired by the camera 17a, and the eye is recognized based on their interval, size, and color. Can be.
[0032]
The neck control unit 38 is a part of the drive control unit 45 that controls the movable unit of the conversation robot 1, and controls the neck joint drive unit 26 to recognize the neck and eyes 17 of the conversation robot 1 with eye recognition. Control is performed in the direction of the user's eyes recognized by the unit 37.
[0033]
When the pupil of the eye 17 is movable, the neck-and-eye control unit 38 controls the driving unit 27 of the eye 17 so that the pupil of the eye 17 of the conversation robot 1 is recognized by the eye recognition unit 37. Control in the direction.
[0034]
The conversation processing unit 39 is for conversing with the user. The speech processing unit 39 performs a speech recognition function such as a speech content spoken by the user from speech captured by the microphone 18, and various speech sound waveforms for talking to the user, asking questions, answering, and the like. To drive the speaker 20a.
[0035]
The database 40 stores a plurality of two-dimensional projected image silhouettes having different rotation angles and postures as described above, as well as various voice data for conversation with the user and for talking to the user, during conversation with the user, and talking to the user. It stores data of gesture movements at the time and life information of the user (floor layout, furniture arrangement, user's personal daily life pattern, user's hobby, health condition, etc.). A keyword such as a character string, video, or audio is added to the user's life information as needed. As the life pattern data, events related to activities such as getting up, going to bed, eating, taking medicine, taking a walk, free time, and taking a bath are listed, and these events are stored as time schedules together with time data.
[0036]
The life pattern data processing unit 41 stores the life information directly input by the user from the data input device 23 in a database with a keyword attached thereto, or a user such as a voice recognition result acquired by the camera 17a, the microphone 18, and the human detection sensor 19. By processing various types of information, each piece of life information is attached to a database with a keyword and its date and time. Further, the life pattern data processing unit 41 selects the corresponding voice data from the database 40 in response to an instruction or talking from the user, or according to the time, and provides the same to the conversation processing unit 39.
[0037]
Next, an operation method of the conversation robot 1 will be described with reference to FIGS.
[0038]
[Operation method when conversation is started from robot side: Part 1]
The operation procedure shown in FIG. 4 shows an operation method in a case where a conversation is started from the robot side to the user in the conversation robot having the face direction recognition unit 34.
That is, as shown in FIG.
(1) First, a user to talk to is recognized by the user recognition unit 33 (see step S1).
(2) Next, the face direction of the user recognized by the user recognition unit 33 is recognized by the face direction recognition unit 34 (see step S2).
(3) The conversation robot 1 is moved to the front of the user's face by the front movement control unit 36 based on the front direction of the user's face recognized by the face direction recognition unit 34 (see step S3).
(4) The user's eyes are recognized by the eye recognition unit 37 at the moved front position (see step S4).
(5) The neck and eyes 17 of the robot are controlled by the neck control unit 38 in the direction of the eyes of the user recognized by the eye recognition unit 37 (see step S5).
(6) Thereafter, the conversation processing unit 39 talks to the user and starts a conversation (see step S6).
[0039]
As a result, the conversation robot 1 stands in front of the user's face and starts conversation while looking at his / her eyes, so that a conversation with a closer feeling is established.
[0040]
[Operation method when conversation is started from the robot side: part 2]
The operation procedure shown in FIG. 5 shows an operation method in a case where a conversation is started from the robot side to the user in the conversation robot having the body direction recognition unit 35.
That is, as shown in FIG.
(1) First, the user to be talked to is recognized by the user recognition unit 33 (see step S11).
(2) Next, the body direction of the user recognized by the user recognition unit 33 is recognized by the body direction recognition unit 35 (see step S12).
(3) The conversation robot 1 is moved to the front of the user's body by the front movement control unit 36 based on the user's body front direction recognized by the body direction recognition unit 35 (see step S13).
(4) At the moved front position, the eyes of the user are recognized by the eye recognition unit 37 (see step S14).
(5) The neck control part 38 controls the robot's neck and eyes 17 in the direction of the user's eyes recognized by the eye recognition part 37 (see step S15).
(6) Thereafter, the conversation processing unit 39 talks to the user to start a conversation (see step S16).
[0041]
As a result, the conversation robot 1 stands in front of the user's body and starts a conversation while looking at his / her own eyes, so that a conversation with a closer feeling is established.
[0042]
Here, since the direction of the user's face moves finer and faster than the direction of the body, the moving method shown in FIG. It is highly likely that the user's face has turned in a different direction. On the other hand, since the face is considered to face the front of the body on average, it is more likely that the conversation robot 1 moves in the front of the body as in the operation method shown in FIG. Rather than doing so, it is possible to stand more robustly (reliably) at the user's front position.
[0043]
[Operation method when conversation starts from user side: Part 1]
The operation procedure illustrated in FIG. 6 illustrates an operation method in a case where a conversation is started from the user side to the robot in the conversation robot having the face direction recognition unit 34.
That is, as shown in FIG.
(1) First, the user who has spoken is recognized by the user recognition unit 33 (see step S21).
(2) Next, the face direction of the user recognized by the user recognition unit 33 is recognized by the face direction recognition unit 34 (see step S22).
(3) The conversation robot 1 is moved in front of the user's face by the front movement control unit 36 based on the user's face front direction recognized by the face direction recognition unit 34 (see step S23).
(4) At the moved front position, the eyes of the user are recognized by the eye recognition unit 37 (see step S24).
(5) The neck and eyes 17 of the robot are controlled by the neck control unit 38 in the direction of the user's eyes recognized by the eye recognition unit 37 (see step S25).
(6) Thereafter, the conversation processing unit 39 replies to the user (see step S26).
[0044]
As a result, the conversation robot 1 stands in front of the user's face and replies while looking at his / her own eyes, so that a more intimate conversation is established.
[0045]
[Operation method when the user starts a conversation: part 2]
The operation procedure illustrated in FIG. 7 illustrates an operation method in a case where the user starts a conversation with the robot in the conversation robot having the body direction recognition unit 35.
That is, as shown in FIG.
(1) First, the user who has spoken is recognized by the user recognition unit 33 (see step S31).
(2) Next, the body direction of the user recognized by the user recognition unit 33 is recognized by the body direction recognition unit 35 (see step S32).
(3) The conversation robot 1 is moved to the front of the user's body by the front movement control unit 36 based on the user's body front direction recognized by the body direction recognition unit 35 (see step S33).
(4) At the moved front position, the eyes of the user are recognized by the eye recognition unit 37 (see step S34).
(5) The neck control part 38 controls the robot's neck and eyes 17 in the direction of the user's eyes recognized by the eye recognition part 37 (see step S35).
(6) Thereafter, the conversation processing unit 39 replies to the user (see step S36).
[0046]
As a result, the conversation robot 1 stands in front of the user's body and replies while looking at his own eyes, so that a more intimate conversation is established.
[0047]
Here, since the direction of the user's face moves finer and faster than the direction of the body, the movement method shown in FIG. It is highly likely that the user's face has turned in a different direction. On the other hand, the face is considered to face the front of the body on average, so that the conversation robot 1 moving in the front of the body moves to the front of the face as in the operation method according to FIG. Rather than doing so, it is possible to stand more robustly in front of the user.
[0048]
【The invention's effect】
The first invention is a conversation robot that moves to the front position of the user's face or body and performs conversation while looking at the eyes of the user. Because the conversation is performed while watching, a conversation with a closer feeling is established than before.
[0049]
According to a second aspect, in the conversation robot according to the first aspect, a user recognizing means for recognizing a user, a face direction recognizing means for recognizing a face front direction of the user, and a front movement control for moving the robot body to the front of the user's face. Means, eye recognition means for recognizing the user's eyes, head control means for controlling the robot's neck and eyes in the direction of the user's eyes, and conversation processing means for conversing with the user. Standing in front of the user's face and having a conversation while looking at their own eyes, a more intimate conversation is established.
[0050]
According to a third aspect, in the conversation robot according to the first aspect, a user recognizing means for recognizing the user, a body direction recognizing means for recognizing a user's frontal direction, and a front movement control for moving the robot body to the front of the user's body. Means, eye recognition means for recognizing the user's eyes, head control means for controlling the robot's neck and eyes in the direction of the user's eyes, and conversation processing means for conversing with the user. Standing in front of the user's body and having a conversation while looking at their own eyes, a conversation with a closer feeling is established. Further, it is possible to more robustly stand at the user's front position than when the conversation robot moves in front of the user's face.
[0051]
The fourth invention is an operation method in the case where the conversation robot of the second invention speaks to the user, and recognizes the user, recognizes the front direction of the user's face, moves to the front of the user's face, and moves the front position. The robot recognizes the user's eyes, controls the robot's neck and eyes in the direction of the user's eyes, and then starts a conversation, so that the conversation robot stands in front of the user's face and further looks at his / her eyes. Since the conversation starts, a more intimate conversation is established.
[0052]
The fifth invention is an operation method when the user speaks to the conversation robot of the second invention, and recognizes the user, recognizes the user's face front direction, moves to the front of the user's face, Recognizing the user's eyes at the front position, controlling the robot's neck and eyes in the direction of the user's eyes, and then replying to the user, a more intimate conversation is established.
[0053]
The sixth invention is an operation method in the case where the conversation robot of the third invention speaks to the user, recognizes the user, recognizes the user's body front direction, moves to the front of the user's body, and moves the front position. Recognizes the user's eyes, controls the robot's neck and eyes in the direction of the user's eyes, and then starts a conversation, so that a more familiar conversation is established. Further, it is possible to more robustly stand at the user's front position than when the conversation robot moves in front of the user's face.
[0054]
A seventh invention is an operation method when the user speaks to the conversation robot of the third invention, and recognizes the user, recognizes the user's body front direction, moves to the front of the user's body, Recognizing the user's eyes at the front position, controlling the robot's neck and eyes in the direction of the user's eyes, and then replying to the user, a more intimate conversation is established. Further, it is possible to more robustly stand at the user's front position than when the conversation robot moves in front of the user's face.
[0055]
The eighth invention is an operation method in a case where a general conversation robot speaks to the user, and recognizes the user, recognizes the user's face front direction, moves to the front of the user's face, and moves at the front position. Recognizing the user's eyes, controlling the robot's neck and eyes in the direction of the user's eyes, and then starting the conversation, a more intimate conversation is established.
[0056]
The ninth invention is another operation method in a case where a general conversation robot talks to a user, recognizes the user, recognizes the user's face front direction, moves to the front of the user's face, and moves the front position. Recognizes the user's eyes, controls the robot's neck and eyes in the direction of the user's eyes, and then starts a conversation, so that a more familiar conversation is established. Further, it is possible to more robustly stand at the user's front position than when the conversation robot moves in front of the user's face.
[0057]
The tenth invention is an operation method when a user speaks to a general conversation robot, recognizes the user, recognizes the user's face front direction, moves to the front of the user's face, Recognizes the eyes of the user, controls the neck and eyes of the robot in the direction of the eyes of the user, and then answers the user, so that a more intimate conversation is established.
[0058]
The eleventh invention is another operation method when the user speaks to a general conversation robot, recognizes the user, recognizes the user's body front direction, moves to the front of the user's body, Recognizing the user's eyes at the front position, controlling the robot's neck and eyes in the direction of the user's eyes, and then replying to the user, a more intimate conversation is established. Further, it is possible to more robustly stand at the user's front position than when the conversation robot moves in front of the user's face.
[Brief description of the drawings]
FIG. 1 is a view showing the appearance of a conversation robot according to an embodiment of the present invention.
FIG. 2 is a diagram showing a control system of the conversation robot according to the embodiment of the present invention.
FIG. 3 is a diagram showing a configuration example of a body direction recognition unit.
FIG. 4 is a diagram showing an operation method (part 1) when a conversation is started from the robot side.
FIG. 5 is a diagram illustrating an operation method (part 2) when a conversation is started from the robot side.
FIG. 6 is a diagram showing an operation method (part 1) when a conversation is started from the user side.
FIG. 7 is a diagram showing an operation method (part 2) when a conversation is started from the user side.
[Explanation of symbols]
1 conversation robot
11 Robot body
12 head
13 Chest
14 torso
15 arms
16 Running wheels
17 eyes
17a camera
18 microphone
19 human detection sensor
20a speaker
20b image display
21, 22 Obstacle sensor
23 Data input device
24 Calendar clock
25 Wheel drive unit
26 Neck joint drive
27 Eye Drive
31 Control unit
32 Self position recognition unit
33 User Recognition Unit
34 Face direction recognition unit
35 Body direction recognition unit
36 Front movement control unit
37 Eye Recognition Unit
38 Neck control unit
39 Conversation processing unit
40 database (storage means)
41 Life pattern data processing unit
42 Human body silhouette extraction unit
43 Matching processing unit
44 Human body front direction estimation unit
45 Drive control unit

Claims (11)

話し相手(以下、ユーザ)の顔または体の正面位置に移動し、ユーザの目を見て会話を行う会話ロボット。A conversation robot that moves to the front position of the face or body of a talk partner (hereinafter, a user) and talks with the eyes of the user. 請求項1において、ユーザを認識するユーザ認識手段と、ユーザの顔正面方向を認識する顔方向認識手段と、ロボット本体をユーザの顔の正面に移動する正面移動制御手段と、ユーザの目を認識する目認識手段と、ロボットの首と目をユーザの目の方向に制御する首目制御手段と、ユーザと会話を行う会話処理手段とを備えることを特徴とする会話ロボット。The user recognition means for recognizing a user, a face direction recognition means for recognizing a front direction of a user's face, a front movement control means for moving a robot body to the front of a user's face, and recognizing a user's eyes. 1. A conversation robot comprising: an eye recognition unit that controls the head and eyes of the robot in the direction of the user's eyes; and a conversation processing unit that communicates with the user. 請求項1において、ユーザを認識するユーザ認識手段と、ユーザの体正面方向を認識する体方向認識手段と、ロボット本体をユーザの体の正面に移動する正面移動制御手段と、ユーザの目を認識する目認識手段と、ロボットの首と目をユーザの目の方向に制御する首目制御手段と、ユーザと会話を行う会話処理手段とを備えることを特徴とする会話ロボット。2. The apparatus according to claim 1, wherein a user recognizing means for recognizing the user, a body direction recognizing means for recognizing the user's front direction, a front movement control means for moving the robot body to the front of the user's body, and recognizing the user's eyes. 1. A conversation robot comprising: an eye recognition unit that controls the head and eyes of the robot in the direction of the user's eyes; and a conversation processing unit that communicates with the user. 請求項2に記載の会話ロボットからユーザに話し掛ける際、ユーザを認識し、ユーザの顔正面方向を認識し、ユーザの顔の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、会話を開始することを特徴とする会話ロボットの動作方法。When talking to the user from the conversation robot according to claim 2, the user is recognized, the front face direction of the user is recognized, the user is moved in front of the face, the user's eyes are recognized at the front position, A method for operating a conversation robot, comprising controlling a neck and eyes in the direction of a user's eyes and then starting a conversation. 請求項2に記載の会話ロボットがユーザから話し掛けられる際、ユーザを認識し、ユーザの顔正面方向を認識し、ユーザの顔の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、ユーザに返事を行うことを特徴とする会話ロボットの動作方法。When the conversation robot according to claim 2 is spoken by the user, the robot recognizes the user, recognizes the front direction of the user's face, moves to the front of the user's face, recognizes the user's eyes at the front position, and recognizes the robot. A method of operating a conversation robot, comprising controlling the head and eyes of a user in the direction of the user's eyes and then replying to the user. 請求項3に記載の会話ロボットからユーザに話し掛ける際、ユーザを認識し、ユーザの体正面方向を認識し、ユーザの体の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、会話を開始することを特徴とする会話ロボットの動作方法。When talking to the user from the conversation robot according to claim 3, the user is recognized, the user's body front direction is recognized, the user moves to the front of the user's body, the user's eyes are recognized at the front position, A method for operating a conversation robot, comprising controlling a neck and eyes in the direction of a user's eyes and then starting a conversation. 請求項3に記載の会話ロボットがユーザから話し掛けられる際、ユーザを認識し、ユーザの体正面方向を認識し、ユーザの体の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、ユーザに返事を行うことを特徴とする会話ロボットの動作方法。When the conversation robot according to claim 3 is spoken by a user, the robot recognizes the user, recognizes the user's body front direction, moves to the front of the user's body, recognizes the user's eyes at the front position, and recognizes the robot. A method of operating a conversation robot, comprising controlling the head and eyes of a user in the direction of the user's eyes and then replying to the user. ロボットから相手に話し掛ける際、話し掛ける相手(以下、ユーザ)を認識し、ユーザの顔正面方向を認識し、ユーザの顔の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、会話を開始することを特徴とする会話ロボットの動作方法。When talking to the other party from the robot, it recognizes the other party to talk to (hereinafter, the user), recognizes the front direction of the user's face, moves to the front of the user's face, recognizes the user's eyes at the front position, and recognizes the robot's neck. And controlling the eyes in the direction of the eyes of the user, and then starting a conversation. ロボットから相手に話し掛ける際、話し掛ける相手(以下、ユーザ)を認識し、ユーザの体正面方向を認識し、ユーザの体の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、会話を開始することを特徴とする会話ロボットの動作方法。When talking to the other party from the robot, it recognizes the other party to talk to (hereinafter, the user), recognizes the user's front direction, moves to the front of the user's body, recognizes the user's eyes at the front position, and recognizes the robot's neck. And controlling the eyes in the direction of the eyes of the user, and then starting a conversation. ロボットが相手から話し掛けられる際、話し掛けてくる相手(以下、ユーザ)を認識し、ユーザの顔正面方向を認識し、ユーザの顔の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、ユーザに返事を行うことを特徴とする会話ロボットの動作方法。When the robot speaks from the other party, it recognizes the other party (hereinafter, the user) who speaks, recognizes the front direction of the user's face, moves to the front of the user's face, recognizes the user's eyes at the front position, A method of operating a conversational robot, comprising controlling the robot's neck and eyes in the direction of the user's eyes, and then replying to the user. ロボットが相手から話し掛けられる際、話し掛けてくる相手(以下、ユーザ)を認識し、ユーザの体正面方向を認識し、ユーザの体の正面に移動し、正面位置にてユーザの目を認識し、ロボットの首と目をユーザの目の方向に制御し、その後、ユーザに返事を行うことを特徴とする会話ロボットの動作方法。When the robot speaks from the other party, it recognizes the other party (hereinafter, the user) who speaks, recognizes the user's body front direction, moves to the front of the user's body, recognizes the user's eyes at the front position, A method of operating a conversational robot, comprising controlling the robot's neck and eyes in the direction of the user's eyes, and then replying to the user.
JP2002198258A 2002-07-08 2002-07-08 Conversation robot and its operation method Withdrawn JP2004034274A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002198258A JP2004034274A (en) 2002-07-08 2002-07-08 Conversation robot and its operation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002198258A JP2004034274A (en) 2002-07-08 2002-07-08 Conversation robot and its operation method

Publications (1)

Publication Number Publication Date
JP2004034274A true JP2004034274A (en) 2004-02-05

Family

ID=31705762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002198258A Withdrawn JP2004034274A (en) 2002-07-08 2002-07-08 Conversation robot and its operation method

Country Status (1)

Country Link
JP (1) JP2004034274A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100678728B1 (en) 2005-06-16 2007-02-05 에스케이 텔레콤주식회사 Interaction between mobile robot and user, System for same
JP2007229814A (en) * 2006-02-27 2007-09-13 Toyota Motor Corp Autonomous mobile robot
WO2007132571A1 (en) 2006-05-16 2007-11-22 Murata Kikai Kabushiki Kaisha Robot
JP2009166184A (en) * 2008-01-17 2009-07-30 Saitama Univ Guide robot
JP2012161851A (en) * 2011-02-03 2012-08-30 Advanced Telecommunication Research Institute International Robot system and space formation recognizing device used in the same
US8442714B2 (en) 2007-04-12 2013-05-14 Panasonic Corporation Autonomous mobile device, and control device and program product for the autonomous mobile device
JP2013099800A (en) * 2011-11-07 2013-05-23 Fujitsu Ltd Robot, method for controlling robot, and control program
WO2017145929A1 (en) * 2016-02-25 2017-08-31 シャープ株式会社 Pose control device, robot, and pose control method
WO2017169826A1 (en) * 2016-03-28 2017-10-05 Groove X株式会社 Autonomous behavior robot that performs welcoming behavior
JP2017204231A (en) * 2016-05-13 2017-11-16 富士通株式会社 Information processor, information processing method, and information processing program
US9919429B2 (en) 2013-09-27 2018-03-20 Nec Corporation Robot, control method, and program
JP2019036174A (en) * 2017-08-17 2019-03-07 ヤフー株式会社 Control apparatus, input/output device, control method and control program
JP2019096365A (en) * 2019-03-19 2019-06-20 ヤフー株式会社 Control device, input/output device, control method and control program
JPWO2020202621A1 (en) * 2019-03-29 2020-10-08

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100678728B1 (en) 2005-06-16 2007-02-05 에스케이 텔레콤주식회사 Interaction between mobile robot and user, System for same
JP2007229814A (en) * 2006-02-27 2007-09-13 Toyota Motor Corp Autonomous mobile robot
WO2007132571A1 (en) 2006-05-16 2007-11-22 Murata Kikai Kabushiki Kaisha Robot
EP2025478A1 (en) * 2006-05-16 2009-02-18 Murata Kikai Kabushiki Kaisha Robot
EP2025478A4 (en) * 2006-05-16 2010-06-23 Murata Machinery Ltd Robot
US8272466B2 (en) 2006-05-16 2012-09-25 Murata Kikai Kabushiki Kaisha Robot
US8442714B2 (en) 2007-04-12 2013-05-14 Panasonic Corporation Autonomous mobile device, and control device and program product for the autonomous mobile device
JP2009166184A (en) * 2008-01-17 2009-07-30 Saitama Univ Guide robot
JP2012161851A (en) * 2011-02-03 2012-08-30 Advanced Telecommunication Research Institute International Robot system and space formation recognizing device used in the same
JP2013099800A (en) * 2011-11-07 2013-05-23 Fujitsu Ltd Robot, method for controlling robot, and control program
US9919429B2 (en) 2013-09-27 2018-03-20 Nec Corporation Robot, control method, and program
WO2017145929A1 (en) * 2016-02-25 2017-08-31 シャープ株式会社 Pose control device, robot, and pose control method
CN108698231A (en) * 2016-02-25 2018-10-23 夏普株式会社 Posture control device, robot and posture control method
JPWO2017145929A1 (en) * 2016-02-25 2018-10-25 シャープ株式会社 Attitude control device, robot, and attitude control method
CN109153127A (en) * 2016-03-28 2019-01-04 Groove X 株式会社 The autonomous humanoid robot of the behavior of behavior is met in execution
JPWO2017169826A1 (en) * 2016-03-28 2018-04-12 Groove X株式会社 Autonomous robot that welcomes you
GB2563785A (en) * 2016-03-28 2018-12-26 Groove X Inc Autonomous behavior robot that performs welcoming behavior
WO2017169826A1 (en) * 2016-03-28 2017-10-05 Groove X株式会社 Autonomous behavior robot that performs welcoming behavior
GB2563785B (en) * 2016-03-28 2021-03-03 Groove X Inc Autonomously acting robot that performs a greeting action
US11135727B2 (en) 2016-03-28 2021-10-05 Groove X, Inc. Autonomously acting robot that performs a greeting action
JP2017204231A (en) * 2016-05-13 2017-11-16 富士通株式会社 Information processor, information processing method, and information processing program
JP2019036174A (en) * 2017-08-17 2019-03-07 ヤフー株式会社 Control apparatus, input/output device, control method and control program
JP2019096365A (en) * 2019-03-19 2019-06-20 ヤフー株式会社 Control device, input/output device, control method and control program
JPWO2020202621A1 (en) * 2019-03-29 2020-10-08
WO2020202621A1 (en) * 2019-03-29 2020-10-08 パナソニックIpマネジメント株式会社 Unmanned moving body and information processing method
EP3950498A4 (en) * 2019-03-29 2022-04-27 Panasonic Intellectual Property Management Co., Ltd. Unmanned moving body and information processing method
JP7426631B2 (en) 2019-03-29 2024-02-02 パナソニックIpマネジメント株式会社 Unmanned mobile object and information processing method

Similar Documents

Publication Publication Date Title
JP5429462B2 (en) Communication robot
JP5732632B2 (en) Robot system and space formation recognition device used therefor
JP2004034274A (en) Conversation robot and its operation method
JP5120745B2 (en) Communication robot
JP7400923B2 (en) Information processing device and information processing method
JP4949969B2 (en) Communication robot and its operation method
JP2007190641A (en) Communication robot
JP2018126810A (en) Robot system and method for interacting with robots
KR20180060567A (en) Communion robot system for senior citizen
JP7375770B2 (en) Information processing device, information processing method, and program
JP2024023193A (en) Information processing device and information processing method
JP3930389B2 (en) Motion program generation device and robot during robot utterance
JP2007152445A (en) Self-propelled robot
JP2005131713A (en) Communication robot
JP2018051701A (en) Communication apparatus
JP4617428B2 (en) Motion generation system
JP2004042151A (en) Communication robot
JP2004017200A (en) Information service robot system
JP2007130691A (en) Communication robot
CN107133609B (en) Man-machine communication robot and control method thereof
Salem et al. 23 Social Signal Processing in Social Robotics
KR20180082777A (en) Communion robot system for senior citizen
JP3745649B2 (en) Communication robot
JP2004045591A (en) Method for recognizing voice and method for providing specific speaker&#39;s voice dictionary
EP3992987A1 (en) System and method for continously sharing behavioral states of a creature

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20051004