JP5751610B2 - Conversation robot - Google Patents
Conversation robot Download PDFInfo
- Publication number
- JP5751610B2 JP5751610B2 JP2010221556A JP2010221556A JP5751610B2 JP 5751610 B2 JP5751610 B2 JP 5751610B2 JP 2010221556 A JP2010221556 A JP 2010221556A JP 2010221556 A JP2010221556 A JP 2010221556A JP 5751610 B2 JP5751610 B2 JP 5751610B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- center
- body part
- conversation
- main
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Description
本発明は、会話ロボットに関し、例えば話題を共有しながら複数人で行われる会話(以下、これをグループ会話と呼ぶ)を行う際に適用して好適なものである。 The present invention relates to a conversation robot, and is suitable for application when, for example, a conversation performed by a plurality of people while sharing a topic (hereinafter referred to as a group conversation).
近年、電気的若しくは磁気的な作用を用いて人間や動物の動作に似せた運動を行うロボットが数多く商品化されている。このようなロボットに対し、例えば人間同士が日常的に行う会話と同様の会話をユーザとの間で行い得るような音声会話機能を搭載したロボットも知られている(例えば、非特許文献1参照)。
In recent years, many robots have been commercialized that use electric or magnetic actions to perform movements resembling human or animal movements. For such robots, there is also known a robot equipped with a voice conversation function capable of performing conversations with users similar to conversations that humans perform daily, for example (see Non-Patent
実際上、これら様々な会話ロボットのなかには、CCD(ChargeCoupled Device)カメラやマイクロホン等の各種外部センサを搭載し、これら外部センサの出力に基づいて外部状況を認識して、認識結果に基づいて自律的に行動し得るようになされたものなどもある。例えば、その一例としては、外部センサを基に、発話するユーザの方向を認識し、例えば胴体部を移動させて胴体部正面及び頭部正面を当該ユーザの方向に向けて、あたかもユーザの発話に反応してユーザに視線を向けて会話を行うような会話ロボットも知られている。 In fact, these various conversation robots are equipped with various external sensors such as CCD (Charge Coupled Device) cameras and microphones, recognize external conditions based on the output of these external sensors, and autonomously based on the recognition results. Some are designed to be able to act. For example, as an example, based on an external sensor, the direction of a user who speaks is recognized, and for example, the body part is moved so that the front part of the body part and the front part of the head face the direction of the user, as if the user's speech There is also known a conversation robot that reacts and talks to a user.
しかしながら、このような会話ロボットでは、実際にグループ会話が行われている際に、発話しているユーザの方向に胴体部正面及び頭部正面を移動させ、発話しているユーザにだけ視線を向けるような動作が行われると、発話していない他のユーザもグループ会話の参加者であるにもかかわらず、あたかもグループ会話から外されたかのような不自然さを、発話しているユーザや他のユーザに感じさせてしまうという問題があった。 However, in such a conversation robot, when the group conversation is actually performed, the front of the body and the front of the head are moved in the direction of the speaking user, and the line of sight is directed only to the speaking user. When this action is performed, the unnaturalness as if the other user who was not speaking is also a participant in the group conversation, as if it was removed from the group conversation, There was a problem that the user felt.
本発明は以上の点を考慮してなされたもので、状況に応じた自然な会話を行い得る会話ロボットを提案することを目的とする。 The present invention has been made in consideration of the above points, and an object of the present invention is to propose a conversation robot that can perform a natural conversation according to the situation.
かかる課題を解決するため本発明の請求項1は、胴体部に回動可能に設けられた上体部と、前記上体部に回動可能に設けられた頭部とを備え、外部センサからの出力結果に基づいて複数の対象物と自律的にグループ会話を行う会話ロボットにおいて、前記外部センサから取得した出力結果に基づいて前複数の対象物の位置を検出する位置検出手段と、前記外部センサから取得した出力結果に基づいて、前記複数の対象物のうち1つを主注目対象物として認識し、他の残りの前記対象物を従注目対象物として認識する役割識別手段と、前記主注目対象物及び前記従注目対象物の位置から求めた重心方向線で示された重心方向に、前記上体部の正面を向けるように前記上体部の回動角度を制御する胴体部制御手段と、前記主注目対象物の方向に前記頭部の正面を向けるように前記頭部の回動角度を制御する頭部制御手段とを備え、前記胴体部制御手段と前記頭部制御手段は、前記役割識別手段からのデータに基づいて、前記上体部の正面を前記重心方向線で示された重心方向に向けた状態のまま前記頭部だけを回動させて前記注目対象物の方向へ前記頭部の正面を向けるように制御でき、かつ、前記頭部の正面を前記主注目対象物の方向に向けた状態のまま前記上体部だけを回動させて前記重心方向線で示された重心方向へ前記上体部の正面を向けるように制御できる構成とされていることを特徴とする。 In order to solve this problem, a first aspect of the present invention includes an upper body portion that is rotatably provided on the body portion and a head portion that is rotatably provided on the upper body portion. in based on the output results with a plurality of objects conversation robots that autonomously group conversation, position detecting means for detecting the positions of a plurality of objects before on the basis of the output results obtained from the external sensor, the external based on the output results obtained from the sensor, recognizes one of the plurality of objects as the main object of interest, recognizing the role identification means other remaining of the object as従注th object, before Symbol Body part control for controlling the rotation angle of the upper body part so that the front surface of the upper body part is directed toward the center of gravity direction indicated by the center of gravity direction line obtained from the positions of the main attention object and the secondary attention object. Means in front of the main object of interest And a head control means for controlling the rotation angle of the head so as to direct the front of the head, the head control unit and the body unit control means, based on data from the roles identification means, It is possible to control the head so that the front of the head is directed toward the target object by rotating only the head while the front of the body is directed toward the center of gravity indicated by the center of gravity direction line. And, with the front of the head directed toward the main object of interest, only the upper body is rotated so that the front of the upper body is moved toward the center of gravity indicated by the center of gravity direction line. It is the structure which can be controlled to turn .
また、本発明の請求項2は、前記複数の対象物がユーザであり、前記役割識別手段は、前記外部センサから取得した画像及び又は音声に基づいて、複数の前記ユーザのうち、発話するユーザあるいは主聴者であるユーザを前記主注目対象物として認識し、他の残りの前記ユーザを前記従注目対象物として認識することを特徴とする。 According to a second aspect of the present invention, the plurality of objects are users, and the role identification unit is a user who speaks among the plurality of users based on images and / or sounds acquired from the external sensors. Alternatively, a user who is a main listener is recognized as the main target object, and the other remaining users are recognized as the sub target object.
また、本発明の請求項3は、前記役割識別手段は、前記主注目対象物として認識した前記ユーザが注目する次注目対象推定物を認識し、該ユーザが発話終了後に前記次注目対象推定物を新たな主注目対象物とすることを特徴とする。 Further, according to a third aspect of the present invention, the role identifying means recognizes a next target object estimation object noticed by the user recognized as the main target object, and the user recognizes the next target object estimation object after the utterance ends. As a new main target object.
また、本発明の請求項4は、前記重心方向線と所定の基準線のなす重心方向角度は、前記主注目対象物の方向に延びる主注目対象方向線と前記基準線のなす主注目対象角度と、前記従注目対象物の方向に延びる従注目対象方向線と前記基準線のなす従注目対象角度を算出し、前記主注目対象角度と前記従注目対象角度とを全て合算した値を前記複数の対象物の総数で除算することによって求めることを特徴とする。 According to a fourth aspect of the present invention, the center-of-gravity direction angle formed between the center-of-gravity direction line and a predetermined reference line is a main target-of-interest angle formed between the main target-of-interest direction line extending in the direction of the main target-of-interest and the reference line. And a secondary attention target angle formed by the secondary attention object direction line extending in the direction of the secondary attention object and the reference line, and the plurality of values obtained by adding all the primary attention object angle and the secondary attention object angle It is obtained by dividing by the total number of objects.
また、本発明の請求項5は、前記胴体部制御手段は、前記複数の対象物から求めた前記重心方向へ前記上体部の正面を向けると、前記上体部の回動角度が所定回動角度以上になる場合、前記上体部の回動角度が前記所定回動角度範囲内となるように、前記複数の対象物の中から所定の対象物を除外して前記重心方向を求めることを特徴とする。 According to a fifth aspect of the present invention, when the body part control means directs the front of the upper body part in the direction of the center of gravity obtained from the plurality of objects, the rotation angle of the upper body part is a predetermined number of times. When the moving angle is equal to or greater than the moving angle, the center of gravity direction is obtained by excluding a predetermined object from the plurality of objects so that the rotation angle of the upper body part is within the predetermined rotation angle range. It is characterized by.
また、本発明の請求項6は、指示部の可動を制御する指示部制御手段を備えたことを特徴とする。 According to a sixth aspect of the present invention, there is provided an instruction unit control means for controlling the movement of the instruction unit.
また、本発明の請求項7は、前記重心方向に前記上体部の正面を向けると、前記上体部の回動角度が所定回動角度以上になる場合、前記上体部の回動を前記回動角度の範囲内になるように、前記胴体部を移動手段によって移動させる移動制御手段を備えることを特徴とする。 According to a seventh aspect of the present invention, when the front surface of the upper body part is directed in the direction of the center of gravity, the upper body part is rotated when the rotation angle of the upper body part is equal to or greater than a predetermined rotation angle. It is characterized by comprising movement control means for moving the body part by moving means so as to be within the range of the rotation angle.
本発明によれば、主注目対象物だけでなく従注目対象物に対しても、あたかも注目しているかのような印象を与えることができ、かくして状況に応じた自然な会話を行い得る。 According to the present invention, not only the main target object but also the subordinate target object can be given an impression as if it is focused, and thus a natural conversation according to the situation can be performed.
以下図面に基づいて本発明の実施の形態を詳述する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(1)本願発明の概要
図1において、1は会話ロボットを示し、この会話ロボット1は、人に模して外観が形成されており、胴体部2に対して回動自在に連結された頭部3と、当該胴体部2の左右に可動自在に連結された腕部4a,4bとを備えている。実際上、この胴体部2は、移動可能な車輪5を備えた基台6を有し、基台6に対して上体部8がz方向を回動軸として回動方向Caに回動自在に設けられた構成を有する。
(1) Outline of the Present Invention In FIG. 1,
上体部8には、上部左右に肩関節部9a,9bを介して腕部4a,4bが設けられているとともに、上部に設けた首部8aに上下左右に可動する頭部3が連結されている。腕部4aには、肩関節部9aによって上体部8に対し上腕部11がx方向、y方向及びz方向に可動するように設けられているとともに、上腕部11に肘関節部12を介して前椀部13が回動自在に設けられ、さらにこの前椀部13に手首関節部14を介して手部15が回動自在に設けられている。これにより、腕部4a,4bは、これら肩関節部9a、肘関節部12及び手首関節部14を各アクチュエータ(図示せず)により駆動させ、上腕部11、前椀部13及び手部15を上体部8の正面(以下、単に胴体部正面と呼ぶ)8b側に向けて突き出す等、人の腕の動作に模した動作を行なえ得る。
The
また、頭部3は、胴体部正面8bと同じ側を頭部3の正面(以下、単に頭部正面と呼ぶ)3aとして、人の目を模した目部21と、人の口を模した口部22とが当該頭部正面3aに形成されている。また、頭部3には、頭部正面3aの目部21に「目」として機能する一対のCCD(Charge Coupled Device)カメラ23が設けられているとともに、口部22の内部に発声装置として機能するスピーカ(図示せず)が配設されている。
In addition, the
さらに、この会話ロボット1は、ユーザの音声をマイクロホン(図1では図示せず)により集音し、当該ユーザの発話した内容に応じて、当該ユーザに対し最適な返答や質問等をスピーカから発話したり、頭部3、上体部8、腕部4a,4b及び車輪5を動かして、ユーザとの間で状況に応じた自律的な行動を実行し得るようになされている。また、かかる構成に加えて、本発明による会話ロボット1は、会話するユーザの人数に応じて、頭部3及び上体部8を回動方向Caに回動させて、頭部正面3a及び胴体部正面8bの向く方向を最適な方向に適宜変更させ、会話するユーザが増えても、自然なグループ会話が行なえるようになされている。以下、複数のユーザとの間でグループ会話を行なう際の会話ロボット1の動作について説明する。
Further, the
ここで、図2(A)は、会話ロボット1とユーザAとの間で行われる1対1の会話の状況を、上方から見た様子を示し、これに対して、図2(B)は、新たにユーザBが加わり、会話ロボット1とユーザAとユーザBとの間で行われる複数人によるグループ会話の状況を、上方から見た様子を示している。なお、図2(A)及び(B)中「△」マークは、ユーザAやユーザBの顔正面A1,B2や、会話ロボット1の頭部正面3aを示し、実線の矢印は、ユーザA及びユーザBの顔正面A1,B2、会話ロボット1の頭部正面3aが向けられた方向を示している。また、点線の矢印は、ユーザA及びユーザBの体正面A2,B2、会話ロボット1の胴体部正面8bが向けられた方向を示している。
Here, FIG. 2A shows a situation of a one-to-one conversation between the
因みに、この実施の形態の場合では、ユーザA及びユーザBの音声を集音する手法の一例として、ユーザA及びユーザBにそれぞれ専用のマイクロホンを用意し、ユーザA及びユーザBの所定部位にそれぞれ付けたマイクロホンが、会話ロボット1に配線を介して接続されている。これにより、会話ロボット1は、マイクロホンから集音したユーザA及びユーザBの各音声を音声信号として取得し、当該音声信号を解析することによりユーザA及びユーザBの発話状況や発話内容を認識し得るようになされている。
Incidentally, in the case of this embodiment, as an example of a method for collecting the voices of the user A and the user B, a dedicated microphone is prepared for each of the user A and the user B, and the predetermined parts of the user A and the user B are respectively provided. The attached microphone is connected to the
ここで、図2(A)に示すように、この会話ロボット1は、ユーザAとの間で会話を行うとき、頭部3を回動させて頭部正面3aをユーザAに向けるとともに、上体部8も回動させて胴体部正面8bをユーザAに向け、ユーザAを注視しているかのような動作を行なう。このように、会話ロボット1は、頭部正面3a及び胴体部正面8bをともにユーザAに向けることで、ユーザAとの会話を行なうことを明確に意思表示しているかのような印象を、ユーザAに対し与えることができる。
Here, as shown in FIG. 2A, when the
かかる構成に加えて、この会話ロボット1は、ユーザAとの間の会話中に、例えばユーザBが近づくと、CCDカメラ23により撮像した動画像に基づいて当該ユーザBの顔正面B1や体正面B2の向きを検出し、この検出結果から、ユーザBの顔正面B1の一部及び体正面B2の一部(後述する)が、会話ロボット1の方向に向いていると認識すると、ユーザBが新たに会話に加わりグループ会話が行われると判断し得るようになされている。
In addition to such a configuration, the
また、会話ロボット1は、図2(B)に示すように、ユーザA及びユーザBを含めたグループ会話であると認識すると、CCDカメラ23で撮像した動画像を基に、グループ会話の参加者(図2(B)ではユーザA及びユーザB)全員の位置を特定しその位置関係から重心方向線CG1(後述する)を算出し、現在会話中のユーザAの方向に頭部正面3aを向けた状態のまま、上体部8だけを回動させて、重心方向線CG1で示された重心方向へ胴体部正面8bを向けるように構成されている。これにより、会話ロボット1は、頭部正面3aをユーザAに向けることで、ユーザAとの会話を継続しているかのような印象をユーザA及びユーザBに対して与えることができる。また、これに加えて会話ロボット1は、ユーザA及びユーザBの位置から求めた重心方向に胴体部正面8bを向けることで、ユーザAだけでなく、あたかもユーザBにも注視しているかのような印象をユーザA及びユーザBに与え、ユーザA及びユーザBとの間で自然な会話を実現し得る。
When the
(2)会話ロボットの回路構成
次に、図2(A)及び(B)に示すような会話ロボット1の行動を、図3に示す回路構成を用いて以下説明する。この実施の形態の場合、会話ロボット1には、図3に示すような会話装置30が内蔵されており、例えば頭部正面3aに設けられたCCDカメラ23は、頭部正面3a方向を撮像して得られた動画像を動画像データとして、顔向き・体向き検出部32と、顔認識部33とにそれぞれ送出する。顔認識部33には、動画像データから生成される動画像の中から、統計的手法によって予め定められた肌色尤度を基に、ほぼ楕円状の肌色領域を特定してこれを顔領域として抽出する。顔認識部33は、この肌色領域を正規化した後、この正規化した画像から両目の距離や鼻の幅等の特徴(顔特徴量)を算出する。ここで、顔認識部33には、ユーザAやユーザBの両目の距離や鼻の幅等の顔特徴量が顔データとして予め記憶されている。これにより顔認識部33は、動画像データを基に検出した顔特徴量と、登録されている顔データの特徴量とを比べることで、動画像中にユーザAやユーザBが存在していることを認識し得、これを顔識別結果データとして位置検出部35に送出する。
(2) Circuit Configuration of Conversation Robot Next, the behavior of the
また、この実施の形態の場合、顔向き・体向き検出部32でも、CCDカメラ23から動画像データを受け取ると、動画像データから生成される動画像の中から、統計的手法によって予め定められた肌色尤度を基に、ほぼ楕円状の肌色領域を特定してこれを顔領域として抽出した後、この肌色領域を正規化し、この正規化した画像から両目の距離や鼻の幅等の特徴(顔特徴量)を算出する。また、顔向き・体向き検出部32は、動画像データから生成される動画像の中から、統計的手法によって予め定められた人の上半身の輪郭データを基に、ユーザA及びユーザBの各上半身を特定してこれを上半身領域として抽出した後、この上半身領域を正規化し、この正規化した画像から肩幅等の特徴(上半身輪郭特徴量)を算出する。ここで、顔向き・体向き検出部32は、例えば顔向きテンプレート情報(後述する)と、体向きテンプレート情報(後述する)とを予め記憶しており、これら顔向きテンプレート情報と顔特徴量とを照らし合わせることで、両目距離の変化等から顔正面A1,B1の向きを識別するとともに、体向きテンプレート情報と上半身輪郭特徴量とを照らし合わせることで、肩幅の変化等から体正面A2,B2の向きを識別し得るようになされている。
Further, in the case of this embodiment, when the face direction / body
例えば、顔向きテンプレート情報は、CCDカメラ23に対して人の顔が正面のとき、斜め前左右30度のとき、斜め前左右60度のとき、斜め前左右90度のときのそれぞれ統計的な顔特徴量のモデル(以下、統計的顔向き特徴量と呼ぶ)を示したものであり、これら統計的顔向き特徴量と、ユーザA及びユーザBの顔特徴量とを比べることで、顔正面A1,B1の向きを識別し、これを顔向き識別データとして得るようになされている。また、体向きテンプレート情報は、例えばCCDカメラに対して人の上半身が正面のとき、斜め前左右30度のとき、斜め前左右60度のとき、斜め前左右90度のときのそれぞれ統計的な上半身輪郭特徴量のモデル(以下、統計的体向き特徴量と呼ぶ)を示したものであり、これら統計的体向き特徴量と、ユーザA及びユーザBの上半身輪郭特徴量とを比べることで、体正面A2,B2の向きを識別し、これを体向き識別データとして得るようになされている。そして、顔向き・体向き検出部32は、これら動画像データを基に検出したユーザA及びユーザBの顔向き識別データ及び体向き識別データをそれぞれ役割識別部36に送出する。
For example, the face orientation template information is statistical when the human face is in front of the
なお、ここで、ユーザA及びユーザBの顔正面A1,B1及び体正面A2,B2の向きを識別する手法としては、例えば「顔と身体の外観及び形状の変動傾向を考慮した上体輪郭抽出・追跡手法」(俵直弘 藤江真也 小林哲則(「画像の認・理解シンポジウム(MIRU2010)」2010年7月))に記載された技術内容を適用するようにしてもよく、ユーザA及びユーザBの顔正面A1,B1及び体正面A2,B2の向きを識別できれば、その他種々の手法を適用してもよい。 Here, as a method for identifying the orientations of the front faces A1, B1 and the front faces A2, B2 of the user A and the user B, for example, “upper body contour extraction considering the appearance and shape variation tendency of the face and body”・ Technology described in “Tracking Method” (Naoya Hiroshi, Shinya Fujie, Tetsunori Kobayashi (“Image Recognition and Understanding Symposium (MIRU2010)”, July 2010)) may be applied. User A and User B Various other methods may be applied as long as the orientations of the face fronts A1 and B1 and the body fronts A2 and B2 can be identified.
このときマイクロホン37a,37bは、ユーザA及びユーザBの各音声をそれぞれ集音すると、これらを音声信号としてそれぞれ音声処理部39に送出する。音声処理部39には、ユーザA及びユーザBの音声の特徴(音声特徴量)が音声識別データとして予め記憶されており、マイクロホン37a,37bから受け取った各音声信号からそれぞれ特徴量を抽出し、この特徴量と音声識別データとを比べることで、どのマイクロホン37a,37bがユーザA又はユーザBに用いられているか否かを認識し得るようになされている。
At this time, when the
そして、音声処理部39は、例えば一方のマイクロホン37aがユーザAの音声を集音し、他方のマイクロホン37bがユーザBの音声を集音していることを示す音声識別結果データを生成し、これを位置検出部35に送出する。また、この音声処理部39は、バイグラム言語モデル、HMM(Hidden Markov Model;隠れマルコフモデル)を用いた語彙量約七百のフレーム同期の連続音声認識を行ない、音声信号を単語の列へと変換し、これを単語列データとして行動選択部40に送出する。
Then, for example, the
一方、位置検出部35は、顔認識部33から受け取った顔識別結果データと、音声処理部39から受け取った音声識別結果データとを対応付けることにより、動画像中のユーザA及びユーザBがどの位置に存在し、かつユーザA及びユーザBのいずれが発話しているかを認識し得るようになされている。
On the other hand, the
実際上、位置検出部35は、動画像中において認識したユーザAと、一方のマイクロホン37aで得られた音声信号とを対応付けるとともに、動画像中において認識したユーザBと、他方のマイクロホン37bで得られた音声信号とを対応付け、動画像中のユーザA及びユーザBのいずれかが発話しているかを認識し、これを位置検出結果データとして役割識別部36に送信する。
In practice, the
役割識別部36は、顔向き・体向き検出部32から受け取った顔向き識別データ及び体向き識別データから、ユーザA及びユーザBが会話に参加しているか否かを判断し得るようになされている。実際上、役割識別部36は、例えばユーザAの動画像から得られたユーザAの顔向き識別データ及び体向き識別データから、ユーザAの顔正面A1の一部及び体正面A2の一部がともに、会話ロボット1側に向いているか否かを判断する。その結果、ユーザAの顔向き識別データ及び体向き識別データから、ユーザAの顔正面A1の一部及び体正面A2の一部が、会話ロボット1側に向いている場合(例えば、会話ロボット1に対してユーザAの顔が正面のとき、斜め前左右30度のとき、斜め前左右60度のとき)、このことはユーザAが会話ロボット1や他のユーザBとグループ会話を行うために、会話ロボット1や他のユーザB側に顔正面A1及び体正面A2を向けていると判断し、役割識別部36は、ユーザAがグループ会話の参加者であると認識する。
The
また、役割識別部36は、ユーザBについても同様に、ユーザBの動画像から得られたユーザBの顔向き識別データ及び体向き識別データから、ユーザBの顔正面B1の一部及び体正面B2の一部が、会話ロボット1側に向いているか否かを判断する。その結果、ユーザBの顔向き識別データ及び体向き識別データから、ユーザBの顔正面B1の一部及び体正面B2の一部が、会話ロボット1側に向いている場合、このことはユーザBが会話ロボット1や他のユーザAとグループ会話を行うために、会話ロボット1や他のユーザA側に顔正面B1及び体正面B2を向けていると判断し、役割識別部36は、ユーザBがグループ会話の参加者であると認識する。
Similarly, for the user B, the
次に、役割識別部36は、位置検出部35から受け取った位置検出結果データに基づいて、グループ会話の参加者として判断したユーザA及びユーザBのうち、いずれかが発話者であるか否かを判断し得る。例えば、役割識別部36は、位置検出部35から受け取った位置検出結果データに基づいて、グループ会話の参加者であると判断したユーザAのマイクロホン37aから音声信号を取得すると、当該ユーザAを発話者(主注目対象物)とし、他方のユーザBを聴者(従注目対象物)とし、これらユーザA及びユーザBの各役割(この場合、ユーザAを発話者(主注目対象物)とし、他方のユーザBを聴者(従注目対象物)とする)を、位置検出結果データに対応付けた主従注目位置検出データを生成し、これを頭部駆動制御部41及び胴体部駆動制御部42にそれぞれ送出する。
Next, the
なお、このとき、役割識別部36は、例えば現在発話している発話者たるユーザAの顔向き識別データに基づいて、ユーザAの顔正面A1の向きがユーザB方向であると判断すると、当該ユーザAがユーザBに向けて現在発話しており、ユーザAの発話終了後にユーザBが何らかの返答をするため発話する可能性が高いと推定し、このユーザBを次発話推定者(ユーザAの発話終了後にこの次発話推定者(次注目対象推定物)を主注目対象物とする)として、これを主従注目位置検出データに対応付けて頭部駆動制御部41に送出する。
At this time, if the
さらに、役割識別部36は、後述する行動選択部40にて選択された発話内容を当該行動選択部40から受け取り、会話ロボット1自身が現在発話していると認識したとき、顔向き・体向き検出部32からの顔向き識別データ及び体向き識別データから、会話ロボット1に顔正面A1,B1及び体正面A2,B2を向けているユーザA又はユーザBが存在しているか否かを判断する。その結果、役割識別部36は、顔正面A1,B1及び体正面A2,B2を会話ロボット1に向いているユーザA又はユーザBを主聴者(主注目対象物)とし、これを主従注目位置検出データに対応付けて頭部駆動制御部41及び胴体部駆動制御部42にそれぞれ送出する。因みに、この実施の形態の場合、ユーザA及びユーザBともに顔正面A1,B1及び体正面A2,B2が会話ロボット1に向いているとき、ユーザA及びユーザBのいずれか一方をランダムに主聴者として選択し、これを主従注目位置検出データに対応付けて頭部駆動制御部41に送出する。
Furthermore, when the
頭部駆動制御部41は、役割識別部36から主従注目位置検出データを受け取ると、発話者や主聴者等の主注目対象物としたユーザA又はユーザBの方向(以下、これを主注目対象方向と呼ぶ)を特定した後、頭部正面3aと、主注目対象方向との角度差を算出する。実際上、この頭部駆動制御部41は、図4(A)に示すように、CCDカメラ23の撮像画枠51の中央線(以下、画枠中央線と呼ぶ)dが頭部正面3aとして予め設定されており、当該画枠中央線下端を角度中心点Oとして、この角度中心点Oから、主注目対象物とした例えばユーザAの胴体中心方向に延びる主注目対象方向線d1を算出する。また、頭部駆動制御部41は、角度中心点Oを基準に画枠中央線dから主注目対象方向線d1までの角度(以下、これを主注目対象角度と呼ぶ)θ1を算出し、この主注目対象角度θ1を頭部回動命令として頭部アクチュエータ43に送出する。
Upon receiving the master-slave attention position detection data from the
なお、図4(A)では、既に画枠中央線dと主注目対象方向線d1とが一致していることから、主注目対象角度θ1は0度となる。仮に画枠中央線dと主注目対象方向線d1とがずれているときには、頭部アクチュエータ43が頭部回動命令に基づいて主注目対象角度θ1だけ頭部3を回動させることにより、画枠中央線dと主注目対象方向線d1とを一致させ、主注目対象方向に頭部正面3aを向けさせ得る(図2(A)及び(B))。
In FIG. 4A, since the image frame center line d and the main attention target direction line d1 already coincide with each other, the main attention target angle θ1 is 0 degree. If the image frame center line d and the main attention target direction line d1 are deviated, the
因みに、胴体部駆動制御部42は、会話ロボット1がユーザAとだけ会話を行なっているとき、上体部8を主注目対象角度θ1まで回動させるのに必要な上体部回動角度を算出し、この上体部回動角度を胴体部回動命令として胴体部アクチュエータ44に送出する。胴体部アクチュエータ44は、胴体部回動命令に基づいて上体部回動角度だけ上体部8を回動させることにより、頭部正面3aが向いている主注目対象方向に胴体部正面8bも向けさせ得る(図2(A))。
Incidentally, when the
これに対して、胴体部駆動制御部42は、ユーザAだけでなくユーザBとも会話を行なっているとき、役割識別部36から主従注目位置検出データを受け取ると、図4(A)に示すように、角度中心点Oから、主注目対象物としたユーザAの胴体中心方向に延びる主注目対象方向線d1を算出し、角度中心点Oを基準に画枠中央線dから主注目対象方向線d1までの主注目対象角度θ1を算出する。
On the other hand, when the body part
また、このとき胴体部駆動制御部42は、角度中心点Oから、従注目対象物としたユーザBの胴体中心方向に延びる従注目対象方向線d2を算出し、角度中心点Oを基準に画枠中央線dから従注目対象方向線d2までの角度(以下、これを従注目対象角度と呼ぶ)θ2を算出する。次いで、胴体部駆動制御部42は、これら主注目対象角度θ1と従注目対象角度θ2とを全て合算して、認識したユーザ(ユーザA及びユーザB)の総数である「2」で除算し、角度中心点Oを基準に画枠中央線dから重心方向線CG1までの角度(以下、これを重心方向角度と呼ぶ)θCG1を算出して、これを胴体部回動命令として胴体部アクチュエータ44に送出する。
Further, at this time, the body part
これにより、胴体部アクチュエータ44は、胴体部回動命令に基づいて重心方向角度θCG1だけ上体部8を回動させることにより、胴体部正面8bを重心方向線CG1側に向けさせ得る(図2(A)及び(B))。かくして、会話ロボット1は、上体部8だけを回動させて、胴体部正面8bを重心方向へ向けることで、あたかも会話ロボット1、ユーザA及びユーザBの全員でグループ会話を行っているかのような意思表示を、ユーザA及びユーザBに行ない得る。
As a result, the
因みに、上述した実施の形態においては、グループ会話として、ユーザA及びユーザBの2人をグループ会話の参加者としたときの会話ロボット1の動作について述べたが、本発明はこれに限らず、3人や4人等その他複数人をグループ会話の参加者としたときでも、この会話ロボット1は同様の動作を実行し得る。例えば、図4(B)に示すように、ユーザA及びユーザBに加えて、新たにユーザCが加わり、3人をグループ会話の参加者としたときの会話ロボット1における動作について以下説明する。
Incidentally, in the above-described embodiment, as the group conversation, the operation of the
この場合、役割識別部36は、ユーザCについても同様に、ユーザCの動画像から得られたユーザCの顔向き識別データ及び体向き識別データから、ユーザCの顔正面C1の一部及び体正面C2の一部が、会話ロボット1側に向いているか否かを判断する。その結果、ユーザCの顔向き識別データ及び体向き識別データから、ユーザCの顔正面C1の一部及び体正面C2の一部が、会話ロボット1側に向いている場合、このことはユーザCが会話ロボット1や他のユーザA、ユーザBとグループ会話を行うために、会話ロボット1側に顔正面C1及び体正面C2を向けていると判断し、役割識別部36は、ユーザCがグループ会話の参加者であると認識する。
In this case, for the user C, the
また、胴体部駆動制御部42は、役割識別部36から主従注目位置検出データを受け取ると、上述と同様にして、角度中心点Oを基準に画枠中央線dから主注目対象方向線d1までの主注目対象角度θ1を算出するとともに、角度中心点Oを基準に画枠中央線dから従注目対象方向線d2までの従注目対象角度θ2を算出する。また、ここでは、図4(B)に示すように、ユーザA及びユーザBに加えて、新たにユーザCが認識されている。これにより、胴体部駆動制御部42は、角度中心点Oから、従注目対象物としたユーザCの胴体中心方向に延びる従注目対象方向線d3を算出し、角度中心点Oを基準に画枠中央線dから従注目対象方向線d3までの従注目対象角度θ3を算出する。
Further, when receiving the main-slave attention position detection data from the
そして、胴体部駆動制御部42は、これら主注目対象角度θ1と従注目対象角度θ2と従注目対象角度θ3を全て合算して、認識したユーザ(ユーザA、ユーザB及びユーザC)の総数である「3」で除算し、画枠中央線dから重心方向線CG1までの重心方向角度θCG2を算出して、これを胴体部回動命令として胴体部アクチュエータ44に送出する。すなわち、この胴体部駆動制御部42は、θ1+θ2+θ3+…+θn/nの計算式に基づいて、角度中心点Oを基準に画枠中央線dからの重心方向角度θCGを算出し得るようになされている(但し、θ1は主注目対象角度、θ2〜θnは従注目対象角度を示し、nは認識したユーザ総数を示す)。
Then, the body
因みに、図3に示すように、行動選択部40は、音声処理部39から単語列データを受け取ると、データベース47に予め記憶されているキーワードを読み出して、当該単語列データの中に含まれるキーワードを抽出し、予め定められたテンプレートの中からこれら抽出したキーワード列と対応するテンプレートをデータベース47から読み出す。これにより行動選択部40は、キーワード列に基づいて選択された所定のテンプレートから、キーワード列がどのような意味を示しているのかを判断し得るようになされている。ここでデータベース47には、各テンプレート毎に、会話ロボット1が発話する発話内容や、腕部4a,4bを動かす等の動作内容を示す行動パターンが対応付けられた行動パターンテーブルが予め記憶されている。
Incidentally, as shown in FIG. 3, when the
これにより、行動選択部40は、文字列データから抽出したキーワード列に対応する行動パターンを、テンプレートを基に行動パターンテーブルの中から選択し、この選択した行動パターンに対応付けられた所定の発話内容及び動作内容をデータベース47から読み出して、発話内容を音声合成部48に送出するとともに、動作内容を腕部4a,4b等の各駆動部に送出する。音声合成部48は、行動選択部40から与えられる発話内容を音声信号に変換する機能を有し、かくして得られた音声信号をスピーカ49に送出するようになされている。これによりこの音声信号に基づく音声をスピーカ49から出力させることができるようになされている。また、腕部4a,4b等の駆動部は、行動選択部40から与えられる動作内容を基に、ユーザAやユーザBの発話に応じて手部15を上げる等、状況に応じた自律的な動作を実現し得る。
Thereby, the
因みに、会話ロボット1は、図2(B)に示すように、ユーザA及びユーザBとの間でグループ会話を行なっている際に、図5(A)に示すように、例えばユーザBが会話ロボット1側に顔正面B1の一部及び体正面B2の一部が向かないように向きを変えると、ユーザBがグループ会話の参加者ではなくなったと判断し、図5(B)に示すように、ユーザA側に胴体部正面8bを向け、ユーザAとの間だけで会話を行なうようになされている。
Incidentally, when the
実際上、役割識別部36は、ユーザBの動画像から得られたユーザBの顔向き識別データ及び体向き識別データから、ユーザBの顔正面B1の一部及び体正面B2の一部が、会話ロボット1側に向いていないと判断すると(例えば、会話ロボット1に対してユーザBの顔が、斜め前左右90度以上のとき)、ユーザBがグループ会話の参加者でなりことを示す主従注目位置検出データを生成し、これを胴体部駆動制御部42にそれぞれ送出する。
In practice, the
胴体部駆動制御部42は、上体部8を主注目対象角度θ1まで回動させるのに必要な上体部回動角度を算出し、この上体部回動角度を胴体部回動命令として胴体部アクチュエータ44に送出する。胴体部アクチュエータ44は、胴体部回動命令に基づいて上体部回動角度だけ上体部8を回動させることにより、頭部正面3aが向いている主注目対象方向に胴体部正面8bも向けさせ得る(図5(B))。これにより、会話ロボット1は、ユーザBがグループ会話から離脱しても、ユーザAに対し胴体部正面8bを向かせることにより、ユーザAとの間で会話を続ける意思表示を行なえ、状況に応じた自然な会話を行い得る。
The body part
(3)動作及び効果
以上の構成において、会話ロボット1では、ユーザAやユーザBの音声や動画像に基づいて、ユーザA及びユーザBのうちいずれが発話者であるかを認識し、ユーザA又はユーザBの発話内容に応じて、スピーカ49から発する発話内容や、腕部4a,4bの動作等の行動パターンを変化させ、ユーザAやユーザBとの会話に応じた自律的行動を実現できる。
(3) Operation and Effect In the above configuration, the
また、この会話ロボット1では、ユーザA及びユーザBのうち、発話者や主聴者、或いは発話終了後の次発話推定者を主注目対象物と認識し、当該主注目対象物の方向に頭部正面3aが向くように頭部3を回動させる。これにより、会話ロボット1では、あたかも主注目対象物となるユーザA又はユーザBの動作に応じて、ユーザA又はユーザBと会話するため注視しているかのような印象を与えることができ、かくしてユーザA又はユーザBとの間で状況に応じた自然な会話を行い得る。
In the
これに加えて、この会話ロボット1では、主注目対象角度θ1及び従注目対象角度θ2を算出し、これら主注目対象角度θ1と従注目対象角度θ2とを全て合算した後、認識したユーザ(ユーザA及びユーザB)の総数で除算して重心方向角度θCG1を算出し、胴体部正面8bをこの重心方向角度θCG1まで回動させる。このように、会話ロボット1では、胴体部正面8bを重心方向角度θCG1まで回動させることで、重心方向に胴体部正面8bを向けさせて、ユーザAだけでなくユーザBに対しても、あたかも注目しているかのような印象を与えることができ、かくしてユーザA又はユーザBとの間で状況に応じた自然な会話を実現し得る。
In addition to this, the
(4)他の実施の形態
なお、本発明は、本実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形実施が可能であり、例えば犬等の動物に似せた会話ロボットを適用してもよい。また、上述した実施の形態においては、対象物としてのユーザA及びユーザBのうち、ユーザAを主注目対象物とし、ユーザBやユーザCを従注目対象物とした場合について述べたが、本発明はこれに限らず、例えば筆記具により文字を記載可能な掲示型のボードや、各種情報が表示された表示装置、掲示型の印刷物等を主注目対象物又は従注目対象物(対象物)としてもよい。
(4) Other Embodiments The present invention is not limited to this embodiment, and various modifications can be made within the scope of the gist of the present invention. For example, the present invention resembles an animal such as a dog. A conversation robot may be applied. In the above-described embodiment, the case where the user A is the main target object and the user B and the user C are the subordinate target objects among the users A and B as the target objects is described. The invention is not limited to this. For example, a bulletin board on which characters can be written with a writing instrument, a display device on which various types of information are displayed, a bulletin-type printed matter, etc., are used as a main attention object or a secondary attention object (object) Also good.
この場合、会話ロボット1は、主注目対象物としてボードを認識し、従注目対象物としてユーザBを認識したとき、腕部4a,4bを可動制御する指示部制御手段(図示せず)によって、指示部としての腕部4a,4bを主注目対象物たるボードの方向に向けるように、当該腕部4a,4bの可動を制御するようにしてもよい。
In this case, when the
この際、会話ロボット1は、胴体部駆動制御部42によって、主注目対象物としてのボードの位置から求めた主注目対象角度θ1と、従注目対象物としてのユーザBの位置から求めた従注目対象角度θ2とを全て合算して、認識した対象物(ボード及びユーザB)の総数である「2」で除算し、角度中心点Oを基準に画枠中央線dから重心方向線CGまでの重心方向角度θCGを算出して、これを胴体部回動命令として胴体部アクチュエータ44に送出する。
At this time, the
これにより、会話ロボット1では、胴体部アクチュエータ44により、胴体部回動命令に基づいて重心方向角度θCGだけ上体部8を回動させ、胴体部正面8bを重心方向線CG1側に向けさせることができる。かくして、会話ロボット1の上体部8だけを回動させて、胴体部正面8bを重心方向へ向けることで、あたかも会話ロボット1が、ボードを腕部4a,4bで指示しつつ、上体部8の一部をユーザB側に向けて、ボードに注目しつつユーザBとの間で会話を行なっているかのような印象を与えることができる。
Thereby, in the
また、上述した実施の形態においては、撮像画枠51内のユーザA及びユーザBの位置を基に重心方向を求め、基台6を動かすことなく、上体部8のみを回動させて重心方向に胴体部正面8bを向けさせるようにした場合について述べたが、本発明はこれに限らず、例えば撮像画枠51内のユーザA及びユーザBの位置を基に重心方向を求め、この重心方向へ胴体部正面8bを向けるための回動角度が、所定の回動角度以上であるとき、上体部8の回動を所定の回動角度範囲内になるように、移動制御手段によって基台6の車輪5を回動させ、胴体部2自体を回動角度方向に回動させたり、或いは胴体部2を回動角度方向側に平行移動させる等して、回動角度方向に胴体部2を自動的に移動させるようにしてもよい。
Further, in the above-described embodiment, the direction of the center of gravity is obtained based on the positions of the user A and the user B in the
さらに、上述した実施の形態においては、撮像画枠51内の全てのユーザA及びユーザBの位置から重心方向を求め、当該上体部8を重心方向へ回動させるようにした場合について述べたが、本発明はこれに限らず、撮像画枠51内の全てのユーザA及びユーザBの位置から求めた重心方向に、胴体部正面8bを向けると、所定回動角度以上に上体部8を回動させる必要があるとき、当該所定回動角度以内となるように、所定回動角度以上の位置に存在するユーザA又はユーザBを除外する等し、ユーザA又はユーザBの中から一部を除外して重心方向を求めるようにしてもよい。
Furthermore, in the above-described embodiment, the case where the direction of the center of gravity is obtained from the positions of all the users A and B in the
さらに、上述した実施の形態においては、外部センサとして、会話ロボット1の目部21に撮像手段であるCCDカメラ23を設け、このCCDカメラ23で撮像された撮像画枠51内のユーザA及びユーザBの位置から重心方向を求めるようにした場合について述べたが、本発明はこれに限らず、例えば外部センサとして室内天井に撮像手段であるカメラを設置し、ユーザA、ユーザB及び会話ロボット1の位置関係を上方からカメラで撮像し、この撮像画像内のユーザA及びユーザBの位置から重心方向を求め、当該重心方向に会話ロボット1の胴体部正面8bを向けるようにしてもよい。
Further, in the above-described embodiment, as an external sensor, a
また、上述した実施の形態のその他の形態として、例えば、音源方向の特定に関しては、例えば「ロボット頭部に設置した2系統のマイクによる音源定位(日本音響学会、春季研究発表 講演論文誌 pp469-470 1999 小林哲則、宮田大介、松坂要佐)」に記載された技術内容を用いていてもよく、この場合、頭部3に2つのマイクロホンを設け、各マイクロホンで受音した信号から音源定位を行い、おおよその到来方向を求めた後、CCDカメラ23で得られた動画像を画像処理してその方向にいるユーザを検索し、発話者として認定するようにしてもよい。
In addition, as another form of the above-described embodiment, for example, regarding the specification of the sound source direction, for example, “sound source localization using two microphones installed on the robot head” 470 1999 Tetsunori Kobayashi, Daisuke Miyata, Kayo Matsuzaka) ”. In this case, two microphones are installed in the
1 会話ロボット
2 胴体部
3 頭部
4a,4b 腕部(指示部)
5 車輪(移動手段)
8 上体部
23 CCDカメラ(外部センサ)
37a,37b マイクロホン(外部センサ)
35 位置検出部(位置検出手段)
36 役割識別部(役割識別手段)
41 頭部駆動制御部(頭部制御手段)
42 胴体部駆動制御部(胴体部制御手段)
1 Conversation robot 2
4a, 4b Arm (instruction part)
5 wheels (moving means)
8 upper body
23 CCD camera (external sensor)
37a, 37b Microphone (external sensor)
35 Position detector (position detection means)
36 Role identification part (role identification means)
41 Head drive control unit (head control means)
42 Fuselage part drive control part (torso part control means)
Claims (7)
前記外部センサから取得した出力結果に基づいて前複数の対象物の位置を検出する位置検出手段と、
前記外部センサから取得した出力結果に基づいて、前記複数の対象物のうち1つを主注目対象物として認識し、他の残りの前記対象物を従注目対象物として認識する役割識別手段と、
前記主注目対象物及び前記従注目対象物の位置から求めた重心方向線で示された重心方向に、前記上体部の正面を向けるように前記上体部の回動角度を制御する胴体部制御手段と、
前記主注目対象物の方向に前記頭部の正面を向けるように前記頭部の回動角度を制御する頭部制御手段とを備え、
前記胴体部制御手段と前記頭部制御手段は、前記役割識別手段からのデータに基づいて、前記上体部の正面を前記重心方向線で示された重心方向に向けた状態のまま前記頭部だけを回動させて前記注目対象物の方向へ前記頭部の正面を向けるように制御でき、かつ、前記頭部の正面を前記主注目対象物の方向に向けた状態のまま前記上体部だけを回動させて前記重心方向線で示された重心方向へ前記上体部の正面を向けるように制御できる構成とされている
ことを特徴とする会話ロボット。 A body part rotatably provided on the body part and a head part rotatably provided on the body part, and autonomously with a plurality of objects based on an output result from an external sensor In a conversation robot that performs group conversations ,
Position detecting means for detecting positions of a plurality of previous objects based on an output result obtained from the external sensor;
On the basis of the output result acquired from the external sensor, recognizes one of the plurality of objects as the main object of interest, recognizing the role identification means other remaining of the object as従注th object,
The centroid direction indicated in the previous SL main object of interest and the center of gravity direction line obtained from the position of the従注eye object, body to control the rotation angle of the upper body portion so as to direct a front of the upper body portion Part control means;
A head control means for controlling a rotation angle of the head so that the front of the head faces the direction of the main target object ;
Based on the data from the role identifying means, the torso part control means and the head control means are configured so that the front of the upper body part is oriented in the center of gravity direction indicated by the center of gravity direction line. The upper body part can be controlled so that the front of the head is directed toward the target object by rotating only the head, and the front of the head is directed toward the main target object. The conversation robot is characterized in that it can be controlled so that the front of the upper body part is directed in the direction of the center of gravity indicated by the center of gravity direction line .
前記役割識別手段は、
前記外部センサから取得した画像及び又は音声に基づいて、複数の前記ユーザのうち、発話するユーザあるいは主聴者であるユーザを前記主注目対象物として認識し、他の残りの前記ユーザを前記従注目対象物として認識する
ことを特徴とする請求項1記載の会話ロボット。 The plurality of objects are users;
The role identification means is
Based on the image and / or sound acquired from the external sensor, among the plurality of users, the user who speaks or is the main listener is recognized as the main target object, and the other remaining users are the subordinate attention. The conversation robot according to claim 1, wherein the conversation robot is recognized as an object.
前記主注目対象物として認識した前記ユーザが注目する次注目対象推定物を認識し、該ユーザが発話終了後に前記次注目対象推定物を新たな主注目対象物とする
ことを特徴とする請求項2記載の会話ロボット。 The role identification means is
The next attention target estimation object which the user recognized as the main attention object recognizes is recognized, and the user sets the next attention object estimation object as a new main attention object after the utterance ends. 2. The conversation robot according to 2.
前記主注目対象物の方向に延びる主注目対象方向線と前記基準線のなす主注目対象角度と、前記従注目対象物の方向に延びる従注目対象方向線と前記基準線のなす従注目対象角度を算出し、
前記主注目対象角度と前記従注目対象角度とを全て合算した値を前記複数の対象物の総数で除算することによって求める
ことを特徴とする請求項1〜3のうちのいずれか1項記載の会話ロボット。 The center-of-gravity direction angle formed by the center-of-gravity direction line and a predetermined reference line is
The main target object angle formed by the main target object direction line extending in the direction of the main target object and the reference line, and the sub target object angle formed by the reference line and the sub target object direction line extending in the direction of the sub target object To calculate
4. The method according to claim 1, wherein a value obtained by adding all the main attention target angles and the sub attention object angles is calculated by dividing the sum by the total number of the plurality of objects. 5. Conversation robot.
前記複数の対象物から求めた前記重心方向へ前記上体部の正面を向けると、前記上体部の回動角度が所定回動角度以上になる場合、前記上体部の回動角度が前記所定回動角度範囲内となるように、前記複数の対象物の中から所定の対象物を除外して前記重心方向を求める
ことを特徴とする請求項1〜4のうちいずれか1項記載の会話ロボット。 The body part control means includes:
When the front surface of the upper body part is directed in the direction of the center of gravity obtained from the plurality of objects, when the rotation angle of the upper body part is equal to or greater than a predetermined rotation angle, the rotation angle of the upper body part is 5. The center-of-gravity direction is calculated by excluding a predetermined object from the plurality of objects so as to be within a predetermined rotation angle range. Conversation robot.
ことを特徴とする請求項1〜4、6のうちいずれか1項記載の会話ロボット。 When the front surface of the upper body part is directed in the direction of the center of gravity, the rotation of the upper body part is within the range of the rotation angle when the rotation angle of the upper body part is equal to or greater than a predetermined rotation angle. The conversation robot according to claim 1, further comprising movement control means for moving the body portion by movement means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010221556A JP5751610B2 (en) | 2010-09-30 | 2010-09-30 | Conversation robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010221556A JP5751610B2 (en) | 2010-09-30 | 2010-09-30 | Conversation robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012076162A JP2012076162A (en) | 2012-04-19 |
JP5751610B2 true JP5751610B2 (en) | 2015-07-22 |
Family
ID=46237000
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010221556A Active JP5751610B2 (en) | 2010-09-30 | 2010-09-30 | Conversation robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5751610B2 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5948359B2 (en) * | 2014-03-11 | 2016-07-06 | 本田技研工業株式会社 | Robot and robot control method |
EP2933064A1 (en) * | 2014-04-17 | 2015-10-21 | Aldebaran Robotics | System, method and computer program product for handling humanoid robot interaction with human |
JP6551507B2 (en) * | 2015-02-17 | 2019-07-31 | 日本電気株式会社 | Robot control device, robot, robot control method and program |
JP6480351B2 (en) * | 2016-01-06 | 2019-03-06 | 日本電信電話株式会社 | Speech control system, speech control device and speech control program |
KR102558873B1 (en) | 2016-03-23 | 2023-07-25 | 한국전자통신연구원 | Inter-action device and inter-action method thereof |
JP2017205324A (en) * | 2016-05-19 | 2017-11-24 | パナソニックIpマネジメント株式会社 | robot |
JP6753707B2 (en) | 2016-06-16 | 2020-09-09 | 株式会社オルツ | Artificial intelligence system that supports communication |
GB2567600B (en) | 2016-08-29 | 2022-05-04 | Groove X Inc | Autonomously acting robot that recognizes direction of sound source |
JP7091880B2 (en) * | 2018-06-28 | 2022-06-28 | 株式会社リコー | Information processing equipment, mobiles, remote control systems, information processing methods and programs |
JP7426631B2 (en) * | 2019-03-29 | 2024-02-02 | パナソニックIpマネジメント株式会社 | Unmanned mobile object and information processing method |
KR20210078060A (en) | 2019-12-18 | 2021-06-28 | 삼성전자주식회사 | Robot for preventing interruption while interacting with user |
CN117245646A (en) * | 2022-12-12 | 2023-12-19 | 北京小米机器人技术有限公司 | Robot and debugging method and device thereof as well as storage medium |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006231447A (en) * | 2005-02-23 | 2006-09-07 | Mitsubishi Heavy Ind Ltd | Confirmation method for indicating position or specific object and method and device for coordinate acquisition |
JP5120745B2 (en) * | 2005-03-10 | 2013-01-16 | 株式会社国際電気通信基礎技術研究所 | Communication robot |
JP4822319B2 (en) * | 2005-10-27 | 2011-11-24 | 株式会社国際電気通信基礎技術研究所 | Communication robot and attention control system using the same |
JP4599522B2 (en) * | 2006-02-21 | 2010-12-15 | 株式会社国際電気通信基礎技術研究所 | Communication robot |
JP2008087140A (en) * | 2006-10-05 | 2008-04-17 | Toyota Motor Corp | Speech recognition robot and control method of speech recognition robot |
-
2010
- 2010-09-30 JP JP2010221556A patent/JP5751610B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012076162A (en) | 2012-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5751610B2 (en) | Conversation robot | |
JP5732632B2 (en) | Robot system and space formation recognition device used therefor | |
JP6505748B2 (en) | Method for performing multi-mode conversation between humanoid robot and user, computer program implementing said method and humanoid robot | |
JP5456832B2 (en) | Apparatus and method for determining relevance of an input utterance | |
JP5429462B2 (en) | Communication robot | |
JP2019008134A (en) | Sound source separation information detection device, robot, sound source separation information detection method and program | |
KR20200031459A (en) | Emotion Recognizer, Robot including the same and Server including the same | |
JP2008087140A (en) | Speech recognition robot and control method of speech recognition robot | |
JP2008126329A (en) | Voice recognition robot and its control method | |
Saffari et al. | Ava (a social robot): Design and performance of a robotic hearing apparatus | |
US20200269421A1 (en) | Information processing device, information processing method, and program | |
JP2007094104A5 (en) | ||
CN103853071A (en) | Human-computer facial expression interaction system based on biological signal | |
JP2020057300A (en) | Identification device, robot, identification method, and program | |
JP7416295B2 (en) | Robots, dialogue systems, information processing methods and programs | |
JP2024009862A (en) | Information processing apparatus, information processing method, and program | |
JP4399603B2 (en) | Communication robot | |
TW200411627A (en) | Robottic vision-audition system | |
US20190232501A1 (en) | Communication robot and control program therefor | |
WO2021166811A1 (en) | Information processing device and action mode setting method | |
Heracleous et al. | Automatic recognition of speech without any audio information | |
JP2002264051A (en) | Robot audio-visual system | |
Haritaoglu et al. | Attentive Toys. | |
CN112767520A (en) | Digital human generation method and device, electronic equipment and storage medium | |
Martinson et al. | Learning speaker recognition models through human-robot interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130927 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140519 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140602 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140801 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150325 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150512 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150514 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5751610 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |