JP3318539B2 - Autonomous mobile robot with dialogue system - Google Patents

Autonomous mobile robot with dialogue system

Info

Publication number
JP3318539B2
JP3318539B2 JP16320799A JP16320799A JP3318539B2 JP 3318539 B2 JP3318539 B2 JP 3318539B2 JP 16320799 A JP16320799 A JP 16320799A JP 16320799 A JP16320799 A JP 16320799A JP 3318539 B2 JP3318539 B2 JP 3318539B2
Authority
JP
Japan
Prior art keywords
robot
viewpoint
user
mobile robot
microcomputer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP16320799A
Other languages
Japanese (ja)
Other versions
JP2000353012A (en
Inventor
倫太 今井
勉 宮里
Original Assignee
株式会社エイ・ティ・アール知能映像通信研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エイ・ティ・アール知能映像通信研究所 filed Critical 株式会社エイ・ティ・アール知能映像通信研究所
Priority to JP16320799A priority Critical patent/JP3318539B2/en
Publication of JP2000353012A publication Critical patent/JP2000353012A/en
Application granted granted Critical
Publication of JP3318539B2 publication Critical patent/JP3318539B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、自立移動ロボットに
関し、特にたとえば、ペットロボットや介護ロボットの
ように、ユーザから発話された指示語(「あっち」,
「そっち」,「こっち」等)を解釈して移動方向を決め
る、新規な自立移動ロボットに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an autonomous mobile robot, and more particularly, to an instruction word ("Achi", "Achi",
The present invention relates to a new self-contained mobile robot that interprets "over there" and "over here" to determine a moving direction.

【0002】[0002]

【従来の技術】自立移動ロボットは、たとえば車輪や脚
によって自立しかつ自在に移動でき、たとえばペットロ
ボットや介護ロボットへの応用が想定される。この種の
応用分野においては、ユーザが指示語によってロボット
の移動方向等を指示し、ロボットがその指示語を解釈す
ることによって、ロボットが自己の移動方向を決定する
局面が考えられる。
2. Description of the Related Art Self-standing mobile robots can move independently and freely by, for example, wheels or legs, and are expected to be applied to, for example, pet robots and nursing robots. In this type of application field, a situation is considered in which the user instructs the moving direction of the robot or the like by using a directive, and the robot interprets the directive so that the robot determines its own traveling direction.

【0003】[0003]

【発明が解決しようとする課題】このような場合、ユー
ザとロボットとの間の位置的関係の自由度が大きく、し
たがって、ユーザが発話時に選択可能な視点が複数存在
する。話者つまりユーザの視点は指示語の意味または解
釈に大きく影響する。たとえば、ユーザがロボットに対
面した状態で発した「こっち」という指示語が、ユーザ
がロボットと並走している状態で発した「こっち」とい
う指示語とは異なる意味を持つ場合である。
In such a case, the degree of freedom of the positional relationship between the user and the robot is large, and therefore, there are a plurality of viewpoints that can be selected by the user when speaking. The speaker's or user's perspective greatly affects the meaning or interpretation of the referent. For example, there is a case where an instruction word “here” issued when the user faces the robot has a different meaning from an instruction word “here” issued while the user is running in parallel with the robot.

【0004】それゆえに、この発明の主たる目的は、ユ
ーザから指示語を適切に解釈できる、自立移動ロボット
を提供することである。
[0004] Therefore, a main object of the present invention is to provide a self-contained mobile robot capable of properly interpreting a directive from a user.

【0005】[0005]

【課題を解決するための手段】この発明に従った自立移
動ロボットは、ユーザからの指示語を解釈して移動方向
を決定する、対話システムを有する自立移動ロボットで
あって、ユーザによって発話された指示語を取り込む指
示語取り込み手段、少なくともユーザとの位置関係に基
づいて、対面視点,鳥瞰図視点または共有視点のいずれ
かの視点を決定する視点決定手段、および視点で指示語
を解釈する解釈手段を備える、自立移動ロボットであ
る。
A self-contained mobile robot according to the present invention is a self-contained mobile robot having an interactive system that interprets a command from a user and determines a moving direction, and is uttered by the user. Descriptive word capturing means for capturing a descriptive word, viewpoint determining means for determining at least one of a face-to-face viewpoint, a bird's-eye view viewpoint, or a shared viewpoint based on at least a positional relationship with a user, and interpreting means for interpreting the descriptive word at the viewpoint A self-contained mobile robot.

【0006】[0006]

【作用】ユーザがたとえば「こっち」,「そっち」ある
いは「あっち」のような指示語を発話すると、ロボット
では、その指示語を取り込んで、ロボットとユーザとの
位置関係およびユーザおよびロボットの移動速度および
移動方向に基づいて、ルールで定めた所定の確率で、対
面視点,鳥瞰図視点または共有視点のいずれかのユーザ
視点を決定する。その決定したユーザ視点に基づいて、
指示語を解釈する。解釈した指示語に従って、たとえば
定義テーブルから対象方向を決定し、その方向に移動す
る。
When the user utters a descriptive word such as "this way", "this way" or "that way", the robot takes in the descriptive word and acquires the positional relationship between the robot and the user and the moving speed of the user and the robot. Based on the moving direction and the moving direction, a user viewpoint of one of a face-to-face viewpoint, a bird's-eye view viewpoint, and a shared viewpoint is determined at a predetermined probability determined by a rule. Based on the determined user viewpoint,
Interpret directives. In accordance with the interpreted descriptive word, for example, the target direction is determined from the definition table, and the direction is moved to that direction.

【0007】ただし、指示語の解釈が間違いであったと
き、別の視点を選択するようにしている。
However, when the interpretation of the descriptive word is incorrect, another viewpoint is selected.

【0008】[0008]

【発明の効果】この発明によれば、ロボットとユーザと
の位置関係に従ってユーザ視点を推論し、その視点に立
脚して指示語を解釈しているので、指示語の誤解釈の機
会が可及的低減され得る。したがって、この発明によれ
ば、ユーザからの指示語を的確に解釈できる。
According to the present invention, the user's viewpoint is inferred in accordance with the positional relationship between the robot and the user, and the descriptive term is interpreted based on the viewpoint. Can be significantly reduced. Therefore, according to the present invention, it is possible to accurately interpret the instruction word from the user.

【0009】この発明のその他の目的,特徴および利点
は、添付図面に関連して行われる以下の実施例の詳細な
説明から一層明らかとなろう。
[0009] Other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments taken in conjunction with the accompanying drawings.

【0010】[0010]

【実施例】図1はこの発明の一実施例の自立移動ロボッ
ト10を示す正面図であり、この図1を参照して、この
実施例の自立移動ロボット(以下、単に「ロボット」と
いう。)10は、本体ないし筐体12を含み、筐体12
の下部に軸16で回転可能に車輪14が設けられる。こ
の車輪14すなわち軸16がモータ36(図2)によっ
て駆動され、したがって、ロボット10が任意の方向に
移動可能である。ただし、図示は省略しているが、左右
の車輪を独立して制御できるような動力伝達機構、たと
えばデファレンシャルギアなどが軸16または車輪14
に関連して組み込まれている。さらに、左右の車輪14
を独立制御するために2つのモータが利用されてもよ
い。このような駆動系自体に特徴がある訳ではないの
で、駆動系の構成は他に考えられる。
FIG. 1 is a front view showing an autonomous mobile robot 10 according to an embodiment of the present invention. Referring to FIG. 1, the autonomous mobile robot of this embodiment (hereinafter simply referred to as "robot"). 10 includes a main body or a housing 12,
A wheel 14 is provided at a lower portion of the wheel so as to be rotatable around a shaft 16. The wheels 14 or shaft 16 are driven by a motor 36 (FIG. 2), so that the robot 10 can move in any direction. However, although not shown, a power transmission mechanism capable of independently controlling the left and right wheels, such as a differential gear, is connected to the shaft 16 or the wheel 14.
Incorporated in connection with. Furthermore, the left and right wheels 14
Two motors may be used to independently control. Since such a drive system itself does not have a characteristic, other configurations of the drive system are conceivable.

【0011】筐体12は平面ほぼ矩形に形成され、その
4つの側面には超音波センサ18が配置される。各超音
波センサ18は送波器と受波器との組合せであり、送波
器から出力された超音波が受波器に受信される時間によ
って、後述のマイクロコンピュータ26(図2)が、部
屋内でのロボット10の位置や障害物の存在等を検出す
る。
The housing 12 is formed in a substantially rectangular plane, and an ultrasonic sensor 18 is disposed on four sides thereof. Each ultrasonic sensor 18 is a combination of a transmitter and a receiver, and a microcomputer 26 (FIG. 2), which will be described later, depends on the time at which the ultrasonic wave output from the transmitter is received by the receiver. The position of the robot 10 in the room, the presence of an obstacle, and the like are detected.

【0012】筐体12の一側面にはたとえばCCDカメ
ラを有するイメージセンサ20が設けられ、このイメー
ジセンサ20は、ユーザ追跡センサとして利用される。
ユーザ追跡センサは、たとえばユーザを撮像し、マイク
ロコンピュータ26がその肌色領域を抽出し、肌色領域
の位置的変化や肌色領域の面積変化によって、ユーザと
ロボット10との間の位置関係を検知するものである。
An image sensor 20 having, for example, a CCD camera is provided on one side surface of the housing 12, and this image sensor 20 is used as a user tracking sensor.
The user tracking sensor captures an image of the user, for example, and the microcomputer 26 extracts the skin color region, and detects the positional relationship between the user and the robot 10 based on a positional change of the skin color region or a change in the area of the skin color region. It is.

【0013】さらに、筐体12の適宜の位置たとえば上
面にはマイク22およびスピーカ24が設けられる。マ
イク22はユーザの発生する音声をとり込むためのもの
で、スピーカ24はユーザに対してロボット10から音
声を発するためのものである。このようにして、この実
施例のロボット10が対話システムを有するロボットと
して構成される。
Further, a microphone 22 and a speaker 24 are provided at an appropriate position, for example, the upper surface of the housing 12. The microphone 22 captures the voice generated by the user, and the speaker 24 generates the voice from the robot 10 to the user. Thus, the robot 10 of this embodiment is configured as a robot having a dialogue system.

【0014】図2を参照して、図1の筐体12内にはマ
イクロコンピュータ26が設けられる。図2では1つの
マイクロコンピュータ26が図示されているが、必要に
応じて、複数のマイクロコンピュータを設けて、それぞ
れに画像処理,音声処理,駆動制御等のタスクを分担さ
せるようにしてもよい。しかしながら、ここでの説明で
は、便宜上、1つまたは複数のマイクロコンピュータを
マイクロコンピュータ26で代表させる。
Referring to FIG. 2, a microcomputer 26 is provided in housing 12 of FIG. Although one microcomputer 26 is illustrated in FIG. 2, a plurality of microcomputers may be provided as necessary, and tasks such as image processing, audio processing, and drive control may be shared among the microcomputers. However, in the following description, one or more microcomputers are represented by the microcomputer 26 for convenience.

【0015】マイクロコンピュータ26には、図1を参
照して説明した超音波センサ18,イメージセンサ20
およびマイク22からの入力を受けるとともに、スピー
カ24に音声信号を与える。図1では図示しなかった
が、ロボット10にはさらにエンコーダ32およびコン
パス34が設けられる。エンコーダ32は左右の車輪1
4に個別に設けられ、各車輪14の回転数に応じた数の
パルス信号をマイクロコンピュータ26に入力する。マ
イクロコンピュータ26では、各エンーダ32からのパ
ルス信号をカウントしてロボット10が移動している速
度や刻々変化する位置を計算する。コンパス34はロボ
ット10の方位(移動方向)を知るためのものである。
The microcomputer 26 includes the ultrasonic sensor 18 and the image sensor 20 described with reference to FIG.
And an input from the microphone 22 and an audio signal to the speaker 24. Although not shown in FIG. 1, the robot 10 is further provided with an encoder 32 and a compass 34. The encoder 32 is the left and right wheels 1
4 and input into the microcomputer 26 pulse signals of a number corresponding to the number of rotations of each wheel 14. The microcomputer 26 counts the pulse signals from the respective enders 32 and calculates the speed at which the robot 10 is moving and the position at which the robot 10 changes every moment. The compass 34 is for knowing the azimuth (moving direction) of the robot 10.

【0016】図1および図2に示す実施例のロボット1
0は、マイク22を通してユーザの発話する指示語たと
えば「あっち」,「そっち」,「こっち」等を解釈し、
その指示語に従った方向に自立移動する。そのとき、ロ
ボット10はスピーカ24を通して、ユーザに対して移
動方向の適否等の確認を求める指示語たとえば「こっち
ですね?」,「そっちですね?」,「あっちですね?」
あるいは「どっちですか?」等を発生する。
The robot 1 of the embodiment shown in FIGS. 1 and 2
0 interprets a command uttered by the user through the microphone 22, for example, "that", "that", "this", etc.
It moves independently in the direction according to the instruction. At this time, the robot 10 uses the speaker 24 to request the user to confirm whether or not the moving direction is appropriate, for example, “this is it?”, “Is that?”, “Is that?”.
Or "Which is it?"

【0017】ここで、図3および図4を参照して、指示
語の使われ方を再確認する。図3の状況は、話し手と聞
き手とが対面した状態であり、この状態では、「こっ
ち」はそれぞれ話し手の方向、「そっち」はそれぞれ聞
き手の方向、「あっち」はそれぞれ話し手と聞き手の両
方から離れた方向を意味する。図4の状況は話し手と聞
き手とが並走状態であり、この状態では、指示語が同じ
方向を示すことになる。たとえば、一方が自分たちが向
かう方向を指示するために「こっち」といえば、他方も
その「こっち」が自分たちが向かう方向であると理解で
きる。
Here, referring to FIGS. 3 and 4, the usage of the descriptive word will be reconfirmed. The situation in FIG. 3 is a state in which the speaker and the listener face each other. In this state, “here” is the direction of the speaker, “that” is the direction of the listener, and “that” is both the speaker and the listener. It means the direction away. In the situation shown in FIG. 4, the speaker and the listener are running side by side, and in this state, the instruction word indicates the same direction. For example, if one says "here" to indicate the direction we are heading, the other can also understand that "this way" is the direction we are heading.

【0018】つまり、図3および図4の例は、指示語が
外界の状況の他に視点の影響を受けて指示の仕方を変化
させることを示している。この例が示している発話の意
味と視点との依存関係は、以下のルール1で表わすこと
ができる。
That is, the examples shown in FIGS. 3 and 4 show that the instruction word changes the instruction method under the influence of the viewpoint in addition to the external situation. The dependency relationship between the meaning of the utterance and the viewpoint shown in this example can be expressed by the following rule 1.

【0019】ルール1:p←s○id ここで、pは指示語によって指し示される対象を、sは
発話時の状況を、dは発話された指示語をそれぞれ表わ
す。そして、○iは、指示語を解釈するための視点を表
わし、添え字iは誰の視点かを表わす記号である。
[0019] Rule 1: p ← s ○ i d here, p is the object pointed to by the directive, s is the situation at the time of the utterance, d represents each spoken directive to. ○ i represents a viewpoint for interpreting the descriptive word, and the subscript i is a symbol representing who the viewpoint is.

【0020】このルール1に従えば、ロボット10が指
示語を理解するために必要となる能力は、状況sを察知
する能力の他に、話者の視点○iを決める能力である。
状況sは、具体的には、ロボット10が知得しまたは予
め与えられている状況、たとえばロボット10が存在す
る部屋の形,サイズ等、部屋のドアの位置、ゴール(目
標位置)、障害物等である。このような状況sは、図2
に示すマイクロコンピュータ26のROM28に予め設
定されているか、もしくは各種センサ18,20,3
2,34で検知した結果マイクロコンピュータ26のR
AM30に蓄えられる。
According to this rule 1, the ability required for the robot 10 to understand the instruction word is not only the ability to detect the situation s but also the ability to determine the viewpoint o i of the speaker.
The situation s is, specifically, a situation that the robot 10 has learned or given in advance, such as the shape and size of the room where the robot 10 is located, the position of the door of the room, the goal (target position), and the obstacle. And so on. Such a situation s is shown in FIG.
Are preset in a ROM 28 of a microcomputer 26 shown in FIG.
As a result of detection at 2, 34, R of the microcomputer 26
Stored in AM30.

【0021】図1の実施例では、指示語の解釈や生成の
際に的確な視点をロボット10に選択させるために、身
体的制約を用いた視点選択手法を採用する。身体的制約
と視点との関係は図3および図4での指示語の用法の違
いと、話し手と聞き手との身体的関係の違いに現れてい
る。つまり、図3の例では、話し手と聞き手とが向き合
っており、指示語「こっち」で話者の奉公を示してい
る。図4では、2人一緒に歩いており、目的の方向を指
示語「こっち」で指し示している。この実施例でのロボ
ット10の視点選択手法は、このような身体的関係の違
いをユーザの発話時の視点の推論に利用する。
In the embodiment shown in FIG. 1, a viewpoint selecting method using physical constraints is adopted in order to cause the robot 10 to select an accurate viewpoint when interpreting or generating a descriptive word. The relationship between the physical constraint and the viewpoint appears in the difference in the usage of the descriptive word in FIGS. 3 and 4, and in the difference in the physical relationship between the speaker and the listener. That is, in the example of FIG. 3, the speaker and the listener face each other, and the instruction word “here” indicates that the speaker is dedicated. In FIG. 4, the two persons are walking together, and the target direction is indicated by the instruction word “here”. The viewpoint selection method of the robot 10 in this embodiment uses such a difference in physical relationship for inferring a viewpoint at the time of a user's utterance.

【0022】ここで、発明者等がロボット10の実験に
使った部屋は、図5に示すように、4m四方のほぼ正方
形の部屋で、ドアの部分がスタートで、対角の位置にゴ
ール(目標位置)が設定されている。ユーザにはロボッ
ト10をスタートからゴールまで指示語を使って連れて
行くタスクを与えた。
Here, as shown in FIG. 5, the room used by the inventors for the experiment of the robot 10 is a substantially square room of 4 m square, with the door part starting and the goal ( Target position) is set. The user was given the task of bringing the robot 10 from the start to the goal using a directive.

【0023】なお、部屋は4つのブロックに区分されて
いて、各ブロックにIR(赤外線)センサ38が設けら
れていて、このIRセンサ38によってロボット10が
どのブロック中に存在するかを知ることができる。すな
わち、IRセンサ38の出力がロボット10に有線また
は無線で送られる。ロボット10すなわちマイクロコン
ピュータ26では、4つのIRセンサ38の出力に基づ
いて、自分が部屋のどのブロックに位置しているかを知
ることができる。
The room is divided into four blocks, and each block is provided with an IR (infrared) sensor 38. With this IR sensor 38, it is possible to know in which block the robot 10 is located. it can. That is, the output of the IR sensor 38 is sent to the robot 10 by wire or wirelessly. The robot 10, that is, the microcomputer 26, can know which block in the room it is based on the outputs of the four IR sensors 38.

【0024】上述の身体的制約は、話し手と聞き手との
位置関係や行動(まとめて「身体的関係」という。)に
付随して生じる制約であり、以下のルール2で定義でき
る。
The above-mentioned physical constraint is a constraint that accompanies a positional relationship and an action (collectively, "physical relationship") between the speaker and the listener, and can be defined by the following rule 2.

【0025】ルール2:E(Au(Vu,Du),Ar(V
r,Dr))→○i ここで、Auはユーザの行動、Arはロボット10の行動
を表わし、ViおよびDi(i=uまたはr)は、それぞ
れ、ユーザまたはロボットの移動速度および移動方向を
示している。
Rule 2: E (A u (V u , D u ), Ar (V
r, at D r)) → ○ i Here, A u is user behavior, A r represents the behavior of the robot 10, V i and D i (i = u or r), respectively, the movement of the user or robot The speed and the moving direction are shown.

【0026】このルール2を適用すると、たとえばユー
ザとロボットとが向き合っているときには、E(A
u(0,robot),Ar(0,user))となる。ユーザと
ロボットとがともに或る速度Xで移動しているときに
は、E(Au(X,goal),Ar(X,goal))と表わす
ことができる。つまり、ルール2は、身体的関係を元に
した視点○iへの制約となっていることが理解できる。
なお、ユーザの行動Au(Vu,Du)はイメージセンサ
20を利用した先に説明したユーザ追跡によってRAM
30内に蓄積される。ロボットの行動Ar(Vr,Dr
は、超音波センサ18,エンコーダ32およびコンパス
34を含む各種センサを利用したロボット監視によって
RAM30内に蓄積される。
When this rule 2 is applied, for example, when the user and the robot face each other, E (A
u (0, robot), Ar (0, user)). When the user and the robot is moving together in one speed X is, E (A u (X, goal), A r (X, goal)) can be expressed as. That is, it can be understood that Rule 2 is a constraint on the viewpoint ○ i based on the physical relationship.
Note that the user's action A u (V u , D u ) is determined by the user tracking described above using the image sensor 20 in the RAM.
30. Robot behavior A r (V r , D r )
Are stored in the RAM 30 by robot monitoring using various sensors including the ultrasonic sensor 18, the encoder 32, and the compass 34.

【0027】図5の部屋では、ユーザは3つの視点を採
ることができる。ロボットと向かい合ったときの視点D
V(Daily View:対面視点),ユーザの上方から見た鳥
瞰図視点BV(Bird's Eye View)そしてロボットと共
通する視点SV(Shared View:共有視点)である。視
点DVおよびSVは、それぞれ、図3および図4の状況
で成立し、ともにユーザとロボットとの関係に基づく視
点である。これに対して、視点BVは、ユーザと部屋と
の間の関係(主として、距離)を元にした視点である。
この場合、話し手は自分から遠い方向を「あっち」と、
近い方向を「こっち」と表現するように、距離に応じて
指示語を選択する。
In the room of FIG. 5, the user can take three viewpoints. Viewpoint D when facing the robot
V (Daily View: face-to-face viewpoint), bird's-eye view viewpoint BV (Bird's Eye View) viewed from above the user, and viewpoint SV (Shared View: shared viewpoint) common to the robot. The viewpoints DV and SV are established in the situations of FIGS. 3 and 4, respectively, and are both viewpoints based on the relationship between the user and the robot. On the other hand, the viewpoint BV is a viewpoint based on the relationship (mainly, distance) between the user and the room.
In this case, the speaker would call the direction farther away from him,
An instruction word is selected according to the distance so that the near direction is expressed as “here”.

【0028】ロボット10すなわちマイクロコンピュー
タ26の視点選択では、これら3つの視点と身体的関係
との間に成立する身体的制約を利用する。そのために、
ロボット10すなわちマイクロコンピュータ26のRO
M28に、次表に示す、視点と各指示語の指示方向との
関係を示す定義テーブルが設定されている。なお、表中
「−」は、他の指示語の指示方向に当てはまらない方向
であることを示す。
In the viewpoint selection of the robot 10, that is, the microcomputer 26, a physical constraint established between these three viewpoints and the physical relationship is used. for that reason,
RO of the robot 10, that is, the microcomputer 26
In M28, a definition table shown in the following table, which indicates a relationship between a viewpoint and a designated direction of each designated word, is set. In addition, "-" in the table indicates that the direction does not apply to the instruction direction of another instruction word.

【0029】[0029]

【表1】 [Table 1]

【0030】発明者等の実験によって確認した、上記ル
ール2を適用した各視点の出現率は以下のとおりであ
る。
The appearance rates of the respective viewpoints to which the above rule 2 is applied, confirmed by the experiments of the inventors, are as follows.

【0031】ルール3:E(Au(0,robot),A
r(0,user))→DV:57.9%,BV:37.7
%,SV:4.4% ルール4:E(Au(X,goal),Ar(X,goal))→
DV:48.3%,BV:22.4%,SV:29.3
% ルール3およびルール4の矢印の右側の項が、DV,B
VおよびSVのどの視点がどのくらいの確率で視点○i
に現れるかを示している。この出現確率は実験で実際に
調べた値に基づくものである。たとえば、ルール3は、
ユーザとロボットとが向かい合っている状況sのときに
は、○iがDVになり易いことを示している。ルール4
はユーザとロボットとが並走している状況sでは、視点
SVが出現し易いことを示している。
Rule 3: E (A u (0, robot), A
r (0, user)) → DV: 57.9%, BV: 37.7
%, SV: 4.4% Rule 4: E (A u (X , goal), A r (X, goal)) →
DV: 48.3%, BV: 22.4%, SV: 29.3
% The terms to the right of the arrows in rules 3 and 4 are DV, B
Which viewpoint of V and SV is the viewpoint ○ i
Or appear in the This appearance probability is based on a value actually checked in an experiment. For example, rule 3 is
In the situation s in which the user and the robot face each other, ii indicates that DV is likely to occur. Rule 4
Indicates that the viewpoint SV is likely to appear in the situation s in which the user and the robot are running side by side.

【0032】そして、実施例では、ルール3または4以
外の身体的制約には、以下のルールを用いる。その理由
は、ユーザの視点が、ほとんどの場合、DVまたはBV
であることに由来する。
In the embodiment, the following rules are used for physical constraints other than rules 3 and 4. The reason is that the user's viewpoint is almost always DV or BV
It is derived from that.

【0033】ルール5:E(Au(X,X),Ar(X,
X))→DV:50%,BV:50%,SV:0% 実施例では、ロボット10は、各種センサからのデータ
に基づいてロボット行動データAr(Vr,Dr)を獲得
し、イメージセンサからのデータに基づいてユーザ行動
データAu(Vu,Du)を獲得する。そして、先に述べ
たルール2身体的制約を選択する。そして、指示語の解
釈の処理と指示語の生成の処理の際に、身体的制約のル
ール3〜5を適用する。つまり、身体的関係に応じて、
指示語処理の際に使用する視点に上記出現確率に応じた
重み付けを行う。
Rule 5: E (A u (X, X), Ar (X,
X)) → DV: 50%, BV: 50%, SV: 0% In the embodiment, the robot 10 acquires robot action data A r (V r , D r ) based on data from various sensors, User behavior data A u (V u , D u ) is obtained based on data from the image sensor. Then, the aforementioned rule 2 physical restriction is selected. Then, at the time of the processing of the interpretation of the directive and the processing of the generation of the directive, the rules 3 to 5 of the physical restriction are applied. In other words, depending on the physical relationship,
Weighting is performed on the viewpoint used in the instruction word processing according to the appearance probability.

【0034】一例として、ルール3を適用する場合、マ
イクロコンピュータ26は、ランダム関数を用いて乱数
を発生し、その乱数のモジュロ1000を求め、結果が
「0−579」のときには視点DVを選択し、「580
−957」のときには視点BVを選択し、「958−9
99」のときに視点SVを選択する。同様に、ルール4
を適用する場合、マイクロコンピュータ26は、乱数の
モジュロ1000を求め、結果が「0−483」のとき
には視点DVを選択し、「484−707」のときには
視点BVを選択し、「708−999」のときに視点S
Vを選択する。ただし、ルール5を適用する場合、マイ
クロコンピュータ26は、ランダム関数を用いて乱数を
発生し、その乱数が偶数か奇数かによって視点DVまた
はBVを選択する。
As an example, when Rule 3 is applied, the microcomputer 26 generates a random number using a random function, obtains the modulo 1000 of the random number, and selects the viewpoint DV when the result is “0-579”. , "580
In the case of “−957”, the viewpoint BV is selected and “958-9” is selected.
When "99", the viewpoint SV is selected. Similarly, rule 4
Is applied, the microcomputer 26 calculates the modulo 1000 of the random number, selects the viewpoint DV when the result is "0-483", selects the viewpoint BV when the result is "484-707", and selects "708-999". When the viewpoint S
Select V. However, when Rule 5 is applied, the microcomputer 26 generates a random number using a random function, and selects the viewpoint DV or BV depending on whether the random number is even or odd.

【0035】指示語の解釈過程では、ロボット10すな
わちマイクロコンピュータ26は、上述のようにして推
論したユーザの視点○uおよび各種センサからの情報に
基づく状況でsに従って、ユーザが発話した指示語dを
解釈する。したがって、ユーザ視点を推論するに当っ
て、身体的制約のルール3〜5にある視点出現の割合に
応じて確率的に視点を選択するので、ロボット10すな
わちマイクロコンピュータ26がユーザ行動データ(イ
メージセンサ20出力でわかるユーザの移動速度と方
向)とロボット行動データ(エンコータ22出力等でわ
かるロボットの移動速度と方向)とによって得られる両
者の身体的関係を反映した指示語の解釈を行う。なお、
ルール2はルール3〜5の一般表現である。
In the process of interpreting the descriptive term, the robot 10 or the microcomputer 26 determines the descriptive term d spoken by the user according to s in a situation based on the user's viewpoint u u and the information from various sensors inferred as described above. Interpret Therefore, in inferring the user viewpoint, the viewpoint is stochastically selected in accordance with the ratio of appearance of viewpoints in the rules 3 to 5 of the physical constraint. The interpretation of the instruction word reflecting the physical relationship between the two obtained by the user's 20 moving speed and direction (obtained from the output of the encoder 22 and the like) and the robot behavior data (the moving speed and direction of the robot known from the output of the encoder 22) is performed. In addition,
Rule 2 is a general expression of rules 3-5.

【0036】ここで、図6を参照して、ロボット10す
なわちマイクロコンピュータ26の動作を説明する。マ
イクロコンピュータ26によって、ユーザが指示語を発
話すると、それがマイク22(図2,図3)によって感
知され、マイクロコンピュータ26がこの図6のルーチ
ンの実行を開始する。
The operation of the robot 10, that is, the microcomputer 26 will now be described with reference to FIG. When the user utters the instruction word by the microcomputer 26, it is sensed by the microphone 22 (FIGS. 2 and 3), and the microcomputer 26 starts executing the routine of FIG.

【0037】図6の最初のステップS1では、マイクロ
コンピュータ26は、ルール1でのユーザの発話時の状
況sのデータ、たとえばロボットの位置やスタート,ゴ
ール等の位置関係を取得する。続くステップS2におい
て、先に説明したように種々のセンサからの出力に基づ
いてマイクロコンピュータ26は、ルール2すなわちル
ール3−5における、ユーザ行動データAu(ユーザの
移動速度と方向)とロボット行動データAr(ロボット
の移動速度と方向)を取得し、それらに基づいて、先に
詳細に説明したルール3−5に従って、ユーザの視点○
uを決定する。ステップS2でユーザ視点が選択的に決
定されるれた後、ステップS3において、マイクロコン
ピュータ26は、ルール1での対象pを決定する。
In the first step S1 in FIG. 6, the microcomputer 26 acquires data of the situation s at the time of the user's utterance according to the rule 1, for example, the positional relationship of the robot position, start, goal and the like. In the subsequent step S2, as described above, based on the outputs from the various sensors, the microcomputer 26 determines the user action data Au (the moving speed and direction of the user) and the robot action according to Rule 2, that is, Rule 3-5. Data A r (moving speed and direction of the robot) is acquired, and based on them, the viewpoint of the user is determined according to Rule 3-5 described in detail above.
Determine u . After the user viewpoint is selectively determined in step S2, in step S3, the microcomputer 26 determines the target p in rule 1.

【0038】たとえば、ユーザとロボットとが向き合っ
ている場合、ユーザ行動データがA u(0,robot)とな
り、ロボット行動データがAr(0,user)となる。し
たがって、ステップS2では、ルール3に従って、○u
=DVを選択し易くなる。したがって、ユーザの指示語
が「こっち」であった場合、ロボット10は、視点DV
に基づきかつ先に挙げた表1に従って、対象pとして
「p=user」すなわち移動方向を決定することになる。
For example, the user and the robot face each other.
If the user behavior data is A u(0, robot)
And the robot behavior data is Ar(0, user). I
Therefore, in step S2, according to rule 3, ○u
= DV becomes easier to select. Therefore, the user's directive
Is “this way”, the robot 10 moves to the viewpoint DV
And according to Table 1 given above,
"P = user", that is, the moving direction is determined.

【0039】また、たとえば、ユーザとロボットとが速
度10で並走している場合、ユーザ行動データがA
u(10,goal)となり、ロボット行動データがAr(1
0,goal)となる。したがって、ステップS2では、ル
ール4に従って、○u=SVを選択し易くなる。したが
って、ユーザの指示語が「こっち」であった場合、ロボ
ット10は、視点SVに基づきかつ先に挙げた表1に従
って、対象pとして「p=goal」を決定し、そのための
移動方向を決定することになる。
For example, when the user and the robot are running in parallel at a speed of 10, the user action data is A
u (10, goal), and the robot behavior data is A r (1
0, goal). Therefore, in step S2, it is easier to select u u = SV according to rule 4. Therefore, when the user's designated word is “here”, the robot 10 determines “p = goal” as the target p based on the viewpoint SV and according to Table 1 described above, and determines a moving direction for that. Will do.

【0040】このようにして決定された対象pすなわち
移動方向に応じて、ステップS4で、マイクロコンピュ
ータ26はモータ36等に指令を与える。その指令に応
じて、ロボット10がその移動方向つまりユーザの方向
に移動する。
In step S4, the microcomputer 26 gives a command to the motor 36 and the like in accordance with the target p determined in this way, that is, the moving direction. In response to the command, the robot 10 moves in the moving direction, that is, the direction of the user.

【0041】その後マイクロコンピュータ26は、ステ
ップS5において、一定時間、ユーザからの返答を待
つ。ユーザは、ロボット10の、ユーザが発した指示語
に対して正しい方向に移動しているかどうかその一定時
間内に返答する。ユーザからの返答があったとき、マイ
クロコンピュータ26は、ステップS6において、その
返答が「ちがう」であるかどうか判断する。
Thereafter, in step S5, the microcomputer 26 waits for a reply from the user for a predetermined time. The user replies within a certain period of time whether the robot 10 is moving in the correct direction in response to the instruction issued by the user. When there is a reply from the user, the microcomputer 26 determines whether or not the reply is "No" in step S6.

【0042】ユーザからの返答が「ちがう」である場
合、つまりロボット10がユーザからの指示語を誤って
解釈した場合には、マイクロコンピュータ26は、先の
ステップS2〜S5を再び実行する。このとき、マイク
ロコンピュータ26は、ルール3を再び適用して、別の
視点を選択し直して、指示語を解釈する。つまり、ロボ
ット10では、指示語の解釈を間違った場合、視点を選
び直し、その変更したユ視点に従って指示語を表1に従
って解釈する。
When the response from the user is "no", that is, when the robot 10 erroneously interprets the instruction word from the user, the microcomputer 26 executes the previous steps S2 to S5 again. At this time, the microcomputer 26 applies rule 3 again, selects another viewpoint again, and interprets the directive. That is, if the interpretation of the descriptive word is incorrect, the robot 10 reselects the viewpoint, and interprets the descriptive word according to Table 1 according to the changed viewpoint.

【0043】このように、実施例では、ロボット10に
おける指示語解釈が間違いであった場合、次の候補の視
点で直ちに指示語を解釈し直すことができる。したがっ
て、指示対象の再決定に有利である。また、再決定され
た指示対象を次の指示語解釈の候補として挙げることが
できるので、ユーザが別の指示語で指示し直した場合に
も、速やかに指示語を解釈できる。
As described above, in the embodiment, if the interpretation of the descriptive term in the robot 10 is incorrect, the descriptive term can be immediately reinterpreted from the viewpoint of the next candidate. Therefore, it is advantageous for redetermining the instruction target. In addition, since the re-determined instruction target can be listed as a candidate for the next instruction word interpretation, the instruction word can be interpreted promptly even when the user designates again with another instruction word.

【0044】なお、ロボット10における指示語の解釈
すなわち移動方向が間違っていなかった場合、ロボット
10は、再びユーザからの指示語の入力を待つ。
If the interpretation of the instruction in the robot 10, that is, the moving direction is not wrong, the robot 10 waits for the input of the instruction from the user again.

【0045】上述の図6の実施例では、ロボット10は
ユーザの指示語を解釈するとそのまま決定した対象の方
向へ移動した。しかしながら、図7の実施例では、ユー
ザの指示語を解釈したとき、ロボット10が指示語を生
成しかつ発話して、ユーザに対して移動方向を確認する
ことができる。
In the embodiment of FIG. 6 described above, the robot 10 interprets the user's instruction and moves as it is in the direction of the determined object. However, in the embodiment of FIG. 7, when interpreting the user's instruction, the robot 10 can generate and speak the instruction and confirm the moving direction to the user.

【0046】この発明の他の実施例である図7を参照し
て、図7のステップS11〜S13は、図6のステップ
S1〜S3と同様である。ステップS11では、図6の
ステップS1と同様にして、マイクロコンピュータ26
は、ルール1でのユーザの発話時の状況sのデータを取
得する。続くステップS12において、図6のステップ
S2と同様にして、種々のセンサからの出力に基づい
て、マイクロコンピュータ26は、ルール3−5におけ
る、ユーザ行動データAuとロボット行動データArを取
得し、それらに基づいて、ルール3−5に従って、ユー
ザの視点○uを決定する。ステップS12でユーザ視点
が選択的に決定されるれた後、ステップS13におい
て、図6のステップS3と同様にして、マイクロコンピ
ュータ26は、ルール1での対象pを決定する。
Referring to FIG. 7, which is another embodiment of the present invention, steps S11 to S13 in FIG. 7 are the same as steps S1 to S3 in FIG. In step S11, similarly to step S1 in FIG.
Acquires the data of the situation s at the time of the user's utterance in rule 1. In the following step S12, the steps in FIG.
S2, in the same manner as, on the basis of the output from the various sensors, the microcomputer 26, the rules 3-5, acquires the user behavior data A u and the robot behavior data A r, based on their rules 3- According to 5, the user's viewpoint 視点u is determined. After the user viewpoint is selectively determined in step S12, in step S13, the microcomputer 26 determines the target p in rule 1 in the same manner as in step S3 in FIG.

【0047】その後、ステップS14では、ロボット1
0は、このようにして決定した対象pに対するロボット
の視点Orでの指示語を生成する。
Thereafter, in step S14, the robot 1
0 generates a directive at the viewpoint Or of the robot with respect to the target p determined in this way.

【0048】たとえば、ユーザとロボットとが向き合っ
ている場合、ユーザ行動データがA u(0,robot)とな
り、ロボット行動データがAr(0,user)となる。し
たがって、ステップS14では、ルール3に従って、ロ
ボットの視点として○r=DVを選択し易くなる。した
がって、ユーザの指示語がたとえば「こっち」であって
ステップS13で決定した対象pがたとえば「p=user」
であった場合、マイクロコンピュータ26は、ロボット
視点○r=DVに基づいて、確認のための指示語「そっ
ちですね?」を生成し、その生成した指示語をスピーカ
24を通して、ユーザに対して発話する。
For example, the user and the robot face each other.
If the user behavior data is A u(0, robot)
And the robot behavior data is Ar(0, user). I
Therefore, in step S14, according to rule 3,
○ As a bot's point of viewr= DV becomes easier to select. did
Therefore, if the user's directive is, for example,
The target p determined in step S13 is, for example, “p = user”
If the microcomputer 26 is
Viewpoint ○r= Based on DV, the instruction word for confirmation
Right? ”Is generated, and the generated directive is
Through 24, the user speaks.

【0049】なお、この対面視点DVにおいて、ユーザ
が発話した指示語が「そっち」であった場合には、ステ
ップS13で対象pとして「p=robot」が決定され、そ
のためロボット10が生成する指示語は、ロボット視点
rを基準にするために、「こっちですね?」となる。
In the face-to-face viewpoint DV, if the instruction uttered by the user is "that", "p = robot" is determined as the target p in step S13, and the instruction generated by the robot 10 is therefore generated. term, in order to on the basis of the robot viewpoint O r, is "It is here?".

【0050】また、たとえば、ユーザとロボットとが速
度10で並走している場合、ユーザ行動データがA
u(10,goal)となり、ロボット行動データがAr(1
0,goal)となる。したがって、ステップS14では、
ルール4に従って、ロボットの視点として○r=SVを
選択し易くなる。したがって、ユーザの指示語が「こっ
ち」であってステップS13で対象pとして「p=goa
l」が決定されたとき、この場合、ロボット10は、ロ
ボット視点○r=SVに基づき、ステップS14におい
て、確認のための指示語「こっちですね?」を生成し発
話することになる。
For example, when the user and the robot are running in parallel at a speed of 10, the user action data is A
u (10, goal), and the robot behavior data is A r (1
0, goal). Therefore, in step S14,
According to Rule 4, it becomes easy to select ○ r = SV as the viewpoint of the robot. Therefore, the user's descriptive word is “here” and “p = goa
When “l” is determined, in this case, the robot 10 generates and speaks the instruction word “this way?” for confirmation in step S14 based on the robot viewpoint o r = SV.

【0051】その後、ステップS15でユーザの返答を
判断し、ロボット10の指示語解釈が間違いであったと
きには、再びステップS12に戻り、そうでなければ、
ステップS13で決定しかつステップS14で確認した
移動方向へ移動する。
Thereafter, the response of the user is determined in step S15. If the interpretation of the descriptive term of the robot 10 is incorrect, the process returns to step S12.
It moves in the movement direction determined in step S13 and confirmed in step S14.

【0052】図7の実施例でも、マイクロコンピュータ
26がロボット視点Orを決定する際に、図6または図
7の実施例でユーザ視点Ouを決めるときと同様に、ル
ール2すなわちルール3−5を適用して、視点DV,S
VまたはBVを確率的に選択し決定する。
[0052] Also in the embodiment of FIG. 7, when the microcomputer 26 determines the robot viewpoint O r, as in the case where determining the user's view point O u in the embodiment of FIG. 6 or FIG. 7, Rule 2 namely rules 3 5 and apply the viewpoint DV, S
V or BV is selected and determined stochastically.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施例のロボットを示す正面図解
図である。
FIG. 1 is an illustrative front view showing a robot according to an embodiment of the present invention;

【図2】図1実施例のロボットの構成を示すブロック図
である。
FIG. 2 is a block diagram showing a configuration of the robot of the embodiment in FIG. 1;

【図3】視点の違いによる指示語の意味の違いを説明す
る図解図である。
FIG. 3 is an illustrative view for explaining a difference in meaning of a designated word due to a difference in viewpoint;

【図4】視点の違いによる指示語の意味の違いを説明す
る図解図である。
FIG. 4 is an illustrative view explaining a difference in meaning of a descriptive word due to a difference in viewpoint;

【図5】実験に用いた部屋の概要を示す図解図である。FIG. 5 is an illustrative view showing an outline of a room used for the experiment;

【図6】図1および図2に示すロボットの動作の一例を
示すフロー図である。
FIG. 6 is a flowchart showing an example of the operation of the robot shown in FIGS. 1 and 2.

【図7】図1および図2に示すロボットの動作の他の例
を示すフロー図である。
FIG. 7 is a flowchart showing another example of the operation of the robot shown in FIGS. 1 and 2.

【符号の説明】[Explanation of symbols]

10 …ロボット 14 …車輪 18 …超音波センサ 20 …イメージセンサ 22 …マイク 24 …スピーカ 26 …マイクロコンピュータ 28 …ROM 30 …RAM 32 …エンコーダ 34 …コンパス 36 …モータ 38 …IRセンサ DESCRIPTION OF SYMBOLS 10 ... Robot 14 ... Wheel 18 ... Ultrasonic sensor 20 ... Image sensor 22 ... Microphone 24 ... Speaker 26 ... Microcomputer 28 ... ROM 30 ... RAM 32 ... Encoder 34 ... Compass 36 ... Motor 38 ... IR sensor

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭60−140405(JP,A) 特開2000−56827(JP,A) 特開2000−137160(JP,A) (58)調査した分野(Int.Cl.7,DB名) G05D 1/00 G05D 1/02 ────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-60-140405 (JP, A) JP-A-2000-56827 (JP, A) JP-A-2000-137160 (JP, A) (58) Fields investigated ( Int.Cl. 7 , DB name) G05D 1/00 G05D 1/02

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】ユーザからの指示語を解釈して移動方向を
決定する、対話システムを有する自立移動ロボットであ
って、 前記ユーザによって発話された指示語を取り込む指示語
取り込み手段、 少なくとも前記ユーザとの位置関係に基づいて、対面視
点,鳥瞰図視点または共有視点のいずれかのユーザ視点
を決定するユーザ視点決定手段、および前記視点で前記
指示語を解釈する解釈手段を備える、自立移動ロボッ
ト。
1. A self-contained mobile robot having a dialogue system for interpreting a directive from a user and determining a moving direction, comprising: a directive capturing means for capturing a directive uttered by the user; A self-contained mobile robot, comprising: a user viewpoint determining unit that determines a user viewpoint of a face-to-face viewpoint, a bird's-eye view viewpoint, or a shared viewpoint based on the positional relationship described above, and an interpreting unit that interprets the instruction word at the viewpoint.
【請求項2】前記ユーザ視点決定手段は、前記ロボット
の位置と前記ユーザおよび前記ロボットの移動速度およ
び移動方向に従って、所定の確率で前記3つの視点のい
ずれかを選択的する第1選択手段を含む、請求項1記載
の自立移動ロボット。
2. The apparatus according to claim 1, wherein said user viewpoint determining means includes a first selecting means for selecting one of the three viewpoints with a predetermined probability according to a position of the robot and a moving speed and a moving direction of the user and the robot. The autonomous mobile robot according to claim 1, comprising:
【請求項3】前記第1選択手段は、前記解釈が間違いで
あったとき、別の視点を選択する、請求項2記載の自立
移動ロボット。
3. The autonomous mobile robot according to claim 2, wherein said first selecting means selects another viewpoint when said interpretation is incorrect.
【請求項4】少なくとも前記ユーザとの位置関係に基づ
いて、対面視点,鳥瞰図視点または共有視点のいずれか
のロボット視点を決定するロボット視点決定手段、 前記ロボット視点で指示語を生成する指示語生成手段、
および前記生成した指示語を発話する発話手段をさらに
備える、請求項1ないし3のいずれかに記載の自立移動
ロボット。
4. A robot viewpoint determining means for determining any one of a robot viewpoint, a face-to-face viewpoint, a bird's-eye view viewpoint, and a shared viewpoint, based on at least a positional relationship with the user. means,
The autonomous mobile robot according to any one of claims 1 to 3, further comprising an utterance unit that utters the generated instruction word.
【請求項5】前記ロボット視点決定手段は、前記ロボッ
トの位置と前記ユーザおよび前記ロボットの移動速度お
よび移動方向に従って、所定の確率で前記3つの視点の
いずれかを選択的する第2選択手段を含む、請求項4記
載の自立移動ロボット。
5. The robot viewpoint determining means includes a second selection means for selecting one of the three viewpoints at a predetermined probability according to a position of the robot and a moving speed and a moving direction of the user and the robot. The autonomous mobile robot according to claim 4, comprising:
JP16320799A 1999-06-10 1999-06-10 Autonomous mobile robot with dialogue system Expired - Lifetime JP3318539B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16320799A JP3318539B2 (en) 1999-06-10 1999-06-10 Autonomous mobile robot with dialogue system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16320799A JP3318539B2 (en) 1999-06-10 1999-06-10 Autonomous mobile robot with dialogue system

Publications (2)

Publication Number Publication Date
JP2000353012A JP2000353012A (en) 2000-12-19
JP3318539B2 true JP3318539B2 (en) 2002-08-26

Family

ID=15769335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16320799A Expired - Lifetime JP3318539B2 (en) 1999-06-10 1999-06-10 Autonomous mobile robot with dialogue system

Country Status (1)

Country Link
JP (1) JP3318539B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4595436B2 (en) 2004-03-25 2010-12-08 日本電気株式会社 Robot, control method thereof and control program
JP4622384B2 (en) 2004-04-28 2011-02-02 日本電気株式会社 ROBOT, ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD, AND ROBOT CONTROL PROGRAM

Also Published As

Publication number Publication date
JP2000353012A (en) 2000-12-19

Similar Documents

Publication Publication Date Title
EP3428764A1 (en) Torque losses estimation of a sperical robot
JP4675811B2 (en) Position detection device, autonomous mobile device, position detection method, and position detection program
Shoval et al. NavBelt and the Guide-Cane [obstacle-avoidance systems for the blind and visually impaired]
JP4849244B2 (en) Mobile robot and moving speed estimation method
JP3906743B2 (en) Guide robot
US7873448B2 (en) Robot navigation system avoiding obstacles and setting areas as movable according to circular distance from points on surface of obstacles
JP4512830B2 (en) Communication robot
JP2008087140A (en) Speech recognition robot and control method of speech recognition robot
JP2007260822A (en) Guide robot
JP2008158868A (en) Mobile body and control method
EP2718778A2 (en) Tracking and following of moving objects by a mobile robot
JP2007139710A (en) Walking-aid robot
CN108664889B (en) Object detection device, object detection method, and recording medium
JP3411529B2 (en) Autonomous mobile robot
JP5411789B2 (en) Communication robot
JP2007266754A (en) Voice i/o device for vehicle and program for voice i/o device
JP2007329702A (en) Sound-receiving device and voice-recognition device, and movable object mounted with them
JP2009166184A (en) Guide robot
JP6150429B2 (en) Robot control system, robot, output control program, and output control method
JP4677593B2 (en) Communication robot
JP5206151B2 (en) Voice input robot, remote conference support system, and remote conference support method
JP2011224737A (en) Guide robot, guide method, and program for controlling guide
JP3318539B2 (en) Autonomous mobile robot with dialogue system
JP4793904B2 (en) Communication robot system and communication robot
JP2005238382A (en) Communication robot

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020528

R150 Certificate of patent or registration of utility model

Ref document number: 3318539

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110614

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110614

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120614

Year of fee payment: 10

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120614

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130614

Year of fee payment: 11

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140614

Year of fee payment: 12

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term