JP5070441B2 - Robot remote control system - Google Patents

Robot remote control system Download PDF

Info

Publication number
JP5070441B2
JP5070441B2 JP2007264118A JP2007264118A JP5070441B2 JP 5070441 B2 JP5070441 B2 JP 5070441B2 JP 2007264118 A JP2007264118 A JP 2007264118A JP 2007264118 A JP2007264118 A JP 2007264118A JP 5070441 B2 JP5070441 B2 JP 5070441B2
Authority
JP
Japan
Prior art keywords
robot
operator
operation terminal
condition
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007264118A
Other languages
Japanese (ja)
Other versions
JP2009090420A (en
Inventor
昌裕 塩見
崇行 神田
大介 坂本
浩 石黒
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2007264118A priority Critical patent/JP5070441B2/en
Publication of JP2009090420A publication Critical patent/JP2009090420A/en
Application granted granted Critical
Publication of JP5070441B2 publication Critical patent/JP5070441B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

この発明は、ロボット遠隔操作システムに関し、特にたとえばロボットを遠隔操作するための、ロボット遠隔操作システムに関する。   The present invention relates to a robot remote control system, and more particularly to a robot remote control system for remotely controlling a robot, for example.

この種の従来のロボット遠隔操作システムの一例が、特許文献1に開示されている。この特許文献1のロボット遠隔操作システムは、ネットワークを介して接続された複数のロボット,中央制御装置および複数の操作端末を含む。複数の操作端末のそれぞれは、オペレータによって操作される。ロボットは、人間とコミュニケーション可能な自律型ロボットであり、自律制御だけでは対応が困難な状況などになったときに、必要に応じてオペレータを呼び出す。中央制御装置は、最も適切な操作端末(オペレータ)を選択し、当該操作端末に遠隔操作を依頼する。オペレータを呼び出したロボットは、その操作端末からの操作コマンドに基づいて自身の動作を制御する。
特開2007−190659[B25J 13/00, B25J 5/00]
An example of this type of conventional robot remote control system is disclosed in Patent Document 1. The robot remote operation system of Patent Document 1 includes a plurality of robots, a central control device, and a plurality of operation terminals connected via a network. Each of the plurality of operation terminals is operated by an operator. The robot is an autonomous robot that can communicate with humans, and calls an operator as necessary when the situation becomes difficult to deal with by autonomous control alone. The central control device selects the most appropriate operation terminal (operator) and requests the operation terminal to perform remote operation. The robot that has called the operator controls its own operation based on the operation command from the operation terminal.
JP2007-190659 [B25J 13/00, B25J 5/00]

しかし、特許文献1に示す背景技術では、ロボットを遠隔操作するのは1人のオペレータであるため、コミュニケーション対象の人間が要求する条件を全て満たそうとすると、個々のオペレータに対して高い知識レベルが要求される。このようなロボット遠隔操作システムの構築は困難であり、現実的ではないと考えられる。また、1人のオペレータでは、十分に対応できない場合もある。   However, in the background art shown in Patent Document 1, since it is a single operator who remotely controls the robot, a high knowledge level is required for each operator if all the conditions required by the person to be communicated are to be satisfied. Is required. Such a robot remote control system is difficult to construct and is not realistic. In addition, one operator may not be able to cope with it sufficiently.

それゆえに、この発明の主たる目的は、新規な、ロボット遠隔操作システムを提供することである。   Therefore, the main object of the present invention is to provide a novel robot remote control system.

この発明の他の目的は、遠隔操作するロボットとコミュニケーションする相手の要求に適切に対応することができる、ロボット遠隔操作システムを提供することである。   Another object of the present invention is to provide a robot remote control system capable of appropriately responding to a request of a partner communicating with a remotely operated robot.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.

第1の発明は、遠隔操作または自律制御により、人間との間で身体動作および音声の少なくとも一方によるコミュニケーション行動を行うロボットと、ネットワークを介してロボットの遠隔操作を行う複数の操作端末と、ネットワークを介してロボットと操作端末との仲介を行う中央制御装置とを有する、ロボット遠隔操作システムであってロボットが自律制御により人間との間におけるコミュニケーション行動の実行が困難であるかどうかを判断する判断手段、自律制御により人間との間におけるコミュニケーション行動の実行が困難であると判断されたときロボットの遠隔操作を行う操作者が満たすべき条件についての条件リストを作成する条件リスト作成手段、複数の操作端末の各々について操作者の属性情報を含む端末情報を記憶する端末情報記憶手段、条件作成手段によって作成された条件リストと端末情報記憶手段に記憶された端末情報とに基づいて条件リストの全部または一部の条件を満足する端末情報を有する第1操作端末と、当該一部の条件を除く残りの条件を満足する端末情報を有する1または複数の第2操作端末とをロボットの遠隔操作を行う操作端末として選択する選択手段、およびロボットと第1操作端末および第2操作端末とをネットワークを介して通信可能に接続させる接続制御手段を備える、ロボット遠隔操作システムである。 According to a first aspect of the present invention, there is provided a robot that performs communication with humans through at least one of body movement and voice by remote operation or autonomous control, a plurality of operation terminals that perform remote operation of the robot via a network, and a network and a central controller for mediating between the robot and the operation terminal through to a robot remote manipulation system, the robot determines whether it is difficult to perform the communication behavior between the human by the autonomous control Judgment means , condition list creation means for creating a condition list for conditions to be satisfied by an operator who performs remote operation of the robot when it is determined that it is difficult to execute communication actions with humans by autonomous control , a plurality of condition list creation means Terminal information including operator attribute information is recorded for each of the operating terminals. Terminal information storage means for, based on the terminal information stored in the condition list and the terminal information storage means that is created by the condition creating means, first that having a terminal information satisfying all or part of the conditions of the condition list 1 and operation terminal, a selection means, and a robot for selecting and one or more second operation terminal having terminal information satisfying the remaining conditions as an operation terminal for remote control of the robot, except for the part condition a first operation terminal and the second operation terminal Ru with a connection control means for communicably connected via a network, a robot remote manipulation system.

第1の発明では、ロボット遠隔操作システム(10)は、遠隔操作または自律制御により、人間との間で身体動作および音声の少なくとも一方によるコミュニケーション行動を行うロボット(12a,12b)と、ネットワーク(100)を介してロボットの遠隔操作を行う複数の操作端末(16a〜16c)と、ネットワークを介してロボットと操作端末との仲介を行う中央制御装置(14)とを有する。判断手段(60,S403,S505〜S517)が、自律制御により人間との間におけるコミュニケーション行動の実行が困難であるかどうかを判断する。条件リスト作成手段(60,62,52,54,70,82,84,100,S35,S65,S71,S101〜S113)自律制御により人間との間におけるコミュニケーション行動の実行が困難であると判断されたときロボットの遠隔操作を行う操作者が満たすべき条件についての条件リストを作成する。端末情報記憶手段(S1)は、複数の操作端末の各々について操作者の属性情報を含む端末情報を記憶している。選択手段(S7,S69,S77,S83)は、条件作成手段によって作成された条件リストと端末情報記憶手段に記憶された端末情報とに基づいて条件リストの全部または一部の条件を満足する端末情報を有する第1操作端末と、当該一部の条件を除く残りの条件を満足する端末情報を有する1または複数の第2操作端末とをロボットの遠隔操作を行う操作端末として選択する。接続制御手段(S85〜S89)は、ロボットと第1操作端末および第2操作端末とをネットワークを介して通信可能に接続させる。 In the first invention, the robot remote control system (10) includes a robot (12a, 12b) that performs a communication action with a human by at least one of body motion and voice by remote control or autonomous control, and a network (100). ) Through a plurality of operation terminals (16a to 16c) that perform remote operation of the robot, and a central control device (14) that mediates between the robot and the operation terminal through a network . Judgment means (60, S403, S505~S517) it is determined whether it is difficult to perform the communication behavior between the human by autonomous control. Conditions list creating means (60,62,52,54,70,82,84,100, S35, S65, S71 , S101~S113) , it is difficult to execution of the communication behavior between the man by the autonomous control when it is determined to create a condition list for conditions to be satisfied by the operator to perform a remote control of the robot. The terminal information storage means (S1) stores terminal information including operator attribute information for each of the plurality of operation terminals. Selection means (S7, S69, S77, S 83) , based on the terminal information stored in the condition list and the terminal information storage means that is created by the condition creating means, satisfies all or part of the conditions of the condition list a first operation terminal that having a terminal information, and one or more second operation terminal having terminal information satisfying the remaining conditions except for the part condition as an operation terminal for remote control of the robot select. The connection control means (S85 to S89) connects the robot to the first operation terminal and the second operation terminal so that they can communicate with each other via a network.

たとえば、ロボットとコミュニケーションする人間からの質問に5つの条件(要求)があり、5つの要求をすべて満たすことができるオペレータが存在しなかったとする。このような場合に、3つの要求に対応することができる或るオペレータの操作端末と、残りの2つの要求に対応することができる他のオペレータの操作端末と選択される。したがって、2人のオペレータが当該ロボットの遠隔操作を行うことで、当該ロボットとコミュニケーションする人間からの質問(5つの要求)について対応することができる。 For example, it is assumed that there are five conditions (requests) in a question from a person who communicates with a robot, and there is no operator who can satisfy all the five requests. In such a case, the operation terminal of a certain operator may correspond to three requirements, and the operation terminal of the other operators that can correspond to the remaining two requests are selected. Therefore, two operators can respond to questions (five requests) from a person who communicates with the robot by remotely operating the robot.

第1の発明によれば、第1操作端末および第2操作端末の操作者の遠隔操作によって人間からの要求を満たすことができる。つまり、ロボットとコミュニケーションする相手の要求に適切に応えて、円滑に対応することができる。 According to the first aspect of the present invention, it is possible to satisfy a request from a human by remote operation of an operator of the first operation terminal and the second operation terminal . That is, it is possible to respond appropriately to the request of the other party who communicates with the robot and to respond smoothly.

第2の発明は、第1の発明に従属し、特定条件が満たされたとき、選択手段による第2操作端末の選択を制限する制限手段をさらに備える。 The second invention is dependent on the first invention, and further comprises a restricting means for restricting selection of the second operation terminal by the selecting means when the specific condition is satisfied.

第2の発明では、制限手段(S79,S81)は、特定条件が満たされたとき、選択手段による第2操作端末の選択を制限する。 In the second invention, the restricting means (S79, S81) restricts the selection of the second operation terminal by the selecting means when the specific condition is satisfied.

第3の発明は、第2の発明に従属し、特定条件は、条件リストの全条件において満たされた条件の数が一定の割合を超えるという条件を含み、制限手段は、条件リストの全条件において満たされた条件の数が一定の割合を超えたとき、選択手段による第2操作端末の選択を制限するA third invention is according to the second invention, the specific conditions include a condition that the number of conditions are met Oite in all conditions of the condition list exceeds a certain percentage of the restriction means, the condition list When the number of conditions satisfied in all conditions exceeds a certain ratio, the selection of the second operation terminal by the selection unit is limited .

第3の発明では、特定条件は、条件リストの全条件において満たされた条件の数が一定の割合を超えるという条件を含む。制限手段は、条件リストの全条件において満たされた条件の数が一定の割合を超えたとき、選択手段による第2操作端末の選択を制限するIn the third aspect of the invention, the specific condition includes a condition that the number of conditions are met Oite in all conditions of the condition list exceeds a constant rate. Limiting means, when the number of conditions are met in all conditions of condition list exceeds a certain rate, limiting the selection of the second operation terminal by the selecting means.

たとえば、一定の割合を80%とし、ロボットとコミュニケーションする人間から5つの要求があった場合に、少なくとも4つの要求が満たされるまで第2操作端末を選択する。この場合には、複数人の操作者によって、ロボット遠隔操作される。 For example, a certain percentage of the 80%, if there are five request from a human to a robot and communication up to four requests are satisfied even without low, it selects the second operation terminal. In this case, the robot is remotely operated by a plurality of operators .

ここで、一定の割合以上を満たせば良いようにしてあるのは、必ず全ての条件を満たさなければならないようにすると、選択手段の選択処理が、無限ループになってしまう可能性があるからである。ただし、このような場合であっても、一定の割合以上の要求に応答することができるので、全く対応できないような不都合な状態は回避される。 Here, are as may satisfy the above predetermined ratio, when so must satisfy sure all conditions, selection processing of selecting means, because there is a possibility that an infinite loop It is. However, even in such a case, since it is possible to respond to requests of a certain ratio or more, an inconvenient state that cannot be handled at all can be avoided.

第3の発明によれば、ロボットとコミュニケーションする人間からの要求を全て満たしていなくても、操作者がロボットを遠隔操作することにより、全く対応できないような不都合を回避して、当該人間の要求に可及的多く対応するようにすることができる。また、操作端末の選択処理が無限ループになるのを防止することができる。 According to the third invention, even if not meet all the requests from the human to the robot and communication by the operator to remotely control the robot, to avoid the inconvenience which can not be handled at all, of the human request As many as possible. In addition, it is possible to prevent the operation terminal selection process from entering an infinite loop.

第4の発明は、第2の発明または第3の発明に従属し、特定条件は、選択手段によって選択された第1操作端末および第2操作端末の数が一定数以上であるという条件を含み、選択手段によって選択された第1操作端末および第2操作端末の数が一定数以上であるかどうかを判定する端末数判定手段をさらに備え、制限手段は、端末数判定手段によって一定数以上であることが判定されたとき、選択手段による第2操作端末の選択を制限するThe fourth invention is dependent on the second invention or the third invention, and the specific condition includes a condition that the number of the first operation terminal and the second operation terminal selected by the selection means is a certain number or more. , Further comprising a terminal number determining means for determining whether or not the number of the first operating terminal and the second operating terminal selected by the selecting means is a certain number or more, and the limiting means is a certain number or more by the terminal number determining means. When it is determined that there is , the selection of the second operation terminal by the selection unit is restricted .

第4の発明では、特定条件は、選択手段によって選択された第1操作端末および第2操作端末の数が一定数以上であるという条件を含む。端末数判定手段(S81)は、選択手段によって選択された第1操作端末および第2操作端末の数が一定数以上であるかどうかを判定する。制限手段は、端末数判定手段によって一定数以上であることが判定されたとき、選択手段による第2操作端末の選択を制限する。たとえば、一定数を3とした場合に、中央制御装置によって3台の操作端末が選択されれば、第2操作端末の選択終了する。 In the fourth invention, the specific condition includes a condition that the number of the first operation terminal and the second operation terminal selected by the selection means is a certain number or more. Number determining means terminus (S81) determines the number of the first operation terminal and the second operation terminal selected by the selection means whether is equal to or greater than a predetermined number. Limiting means, when it is determined at more than a certain number by the terminal number determination unit, to limit the selection of the second operation terminal by the selecting means. For example, when the fixed number is 3, if the three control terminals are selected by the central control device, the selection of the second operation terminal is completed.

第4の発明によれば、第3の発明と同様に、操作端末の選択処理が無限ループになってしまうのを防止することができる。また、操作端末の数を制限するので、遠隔操作する操作者の人数が多数になり、操作者同士での調整等に時間がかかるのを防止することができる。これにより、円滑にロボットを遠隔操作することができる。 According to the fourth invention, similarly to the third invention, it is possible to prevent the selection process of the operation terminal from becoming an infinite loop. Moreover, because it limits the number of the operation terminal, the number of the operator to remotely control becomes numerous, it is possible to prevent the time adjustment of the operation's each other according to. Thereby, the robot can be remotely operated smoothly.

第5の発明は、第の発明ないし第4の発明に従属し、ロボットと第1操作端末および第2操作端末との通信速度によって、ロボットから第1操作端末および第2操作端末に送信するロボットの情報を制御する送信情報制御手段をさらに備える。 A fifth invention is according to the first invention to fourth invention, the communication speed between the robot and the first operation terminal and the second operation terminal, transmitted from the robot to the first operation terminal and the second operation terminal Transmission information control means for controlling robot information is further provided.

第5の発明では、送信情報制御手段(S11,S301〜S329)は、ロボットと第1操作端末および第2操作端末との通信速度によってロボットから各操作端末に送信するロボットの情報を制御する。たとえば、ロボットから操作端末に送信するデータが映像データ,音声データおよび距離データの3種類であるとする。このとき操作者は、ロボットから送信されるデータを参照するなどして、ロボットを遠隔操作する。通信速度が速い場合には、ロボットは、映像データ,音声データおよび距離データを送信する。また、通信速度が遅い場合には、ロボットは、距離データのみを送信する。さらに、通信速度がそれらの中間程度である場合には、ロボットは、映像データのみ、または、音声データのみを送信する。 In the fifth invention, the transmission information control means (S11, S301 to S329) controls the robot information transmitted from the robot to each operation terminal according to the communication speed between the robot and the first operation terminal and the second operation terminal. For example, it is assumed that there are three types of data transmitted from the robot to the operation terminal: video data, audio data, and distance data. At this time, the operator remotely operates the robot by referring to data transmitted from the robot. When the communication speed is high, the robot transmits video data, audio data, and distance data. When the communication speed is low, the robot transmits only distance data. Furthermore, when the communication speed is about the middle of them, the robot transmits only video data or only audio data.

第5の発明によれば、ロボットが送信するデータの種類を通信速度に応じて選択するので、たとえば、送信するデータ量を調整することができる。したがって、ネットワークが過負荷になるのを防止することができる。つまり、通信がいたずらに遅延することがないため、ロボットを円滑に遠隔操作することができる。   According to the fifth aspect, since the type of data transmitted by the robot is selected according to the communication speed, for example, the amount of data to be transmitted can be adjusted. Therefore, it is possible to prevent the network from becoming overloaded. That is, since the communication is not delayed unnecessarily, the robot can be remotely operated smoothly.

この発明によれば、ロボットと選択された操作者が操作する操作端末とを通信可能に接続させるので、オペレータの遠隔操作によって人間からの要求を満たすことができる。つまり、ロボットとコミュニケーションする相手の要求に適切に応えて、円滑に対応することができる。 According to the present invention, since the communicatively connected to an operation terminal operated by the operator and the selected robot, it is possible to meet a request from a human by the operator of the remote control. That is, it is possible to respond appropriately to the request of the other party who communicates with the robot and to respond smoothly.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例のロボット遠隔操作システム10は、ロボット12aおよび12bを含む。このロボット12aおよび12bは、ネットワーク100を介して、中央制御装置14,操作端末16a,16bおよび16cに接続される。以下、ロボット12a,12bを区別する必要がない場合には、ロボット12と呼ぶことにする。同様に、操作端末16a−16cのそれぞれを区別する必要がない場合には、操作端末16と呼ぶことにする。   Referring to FIG. 1, a robot remote control system 10 of this embodiment includes robots 12a and 12b. The robots 12a and 12b are connected to the central controller 14 and the operation terminals 16a, 16b and 16c via the network 100. Hereinafter, when it is not necessary to distinguish the robots 12a and 12b, they will be referred to as robots 12. Similarly, when there is no need to distinguish each of the operation terminals 16a-16c, they will be referred to as operation terminals 16.

ロボット12は、相互作用指向のロボット(コミュニケーションロボット)であり、主として人間Aのようなコミュニケーションの対象(コミュニケーション対象)との間で、身振り手振りのような身体動作および音声の少なくとも一方を含むコミュニケーション行動を実行する機能を備えている。ロボット12は、一例として、受付ロボットや接客ロボットなどであり、たとえば或るイベント会場や家電量販店の販売フロアなどの様々な場所および状況に配置され、通常は自律制御によって、道案内や商品紹介などの役割を果たす。   The robot 12 is an interaction-oriented robot (communication robot), and mainly includes a communication action including at least one of body movement such as gesture gesture and voice with a communication target (communication target) such as the human A. It has a function to execute. The robot 12 is, for example, a reception robot or a customer service robot, and is disposed in various places and situations such as a certain event venue or a sales floor of a home appliance mass retailer. To play a role.

しかし、自律制御だけでは、対応することが難しい事態になった場合に、人間によってより細やかな対応(コミュニケーション等)が求められると、ロボット12はオペレータを呼び出す。そして、ロボット12は、呼び出したオペレータによって入力された操作コマンド情報を受信した時には、受信した操作コマンドに基づいて自身の動作を制御する。つまり、ロボット12は、その自身の状況に応じてオペレータを呼び出し、オペレータによって操作される。   However, when it becomes difficult to respond only by autonomous control, the robot 12 calls an operator when a more detailed response (communication or the like) is required by a human. When the robot 12 receives operation command information input by the calling operator, the robot 12 controls its own operation based on the received operation command. That is, the robot 12 calls an operator according to its own situation and is operated by the operator.

なお、図1には、簡単のため、2台のロボット(12a,12b)およびロボット12を遠隔操作する3台の操作端末(16a−16c)を示してあるが、これによって限定される必要はない。ロボット12は1台でもよく、3台以上であっても構わない。また、操作端末は、2台以上であれば何台でも構わない。   For simplicity, FIG. 1 shows two robots (12a, 12b) and three operation terminals (16a-16c) for remotely operating the robot 12, but it is not necessary to be limited by these. Absent. One robot 12 or three or more robots 12 may be used. Further, the number of operation terminals is not limited as long as it is two or more.

図2を参照して、ロボット12のハードウェアの構成について説明する。また、図2はこの実施例のロボット12の外観を示す正面図である。ロボット12は台車18を含み、台車18の下面にはロボット12を自律移動させる2つの車輪20および1つの従輪22が設けられる。2つの車輪22は車輪モータ24(図3参照)によってそれぞれ独立に駆動され、台車18すなわちロボット12を前後左右の任意方向に動かすことができる。また、従輪22は車輪20を補助する補助輪である。したがって、ロボット12は、配置された空間内を自律制御によって移動可能である。ただし、ロボット12は、或る場所に固定的に配置されても構わない。   The hardware configuration of the robot 12 will be described with reference to FIG. FIG. 2 is a front view showing the appearance of the robot 12 of this embodiment. The robot 12 includes a carriage 18, and two wheels 20 and one slave wheel 22 for autonomously moving the robot 12 are provided on the lower surface of the carriage 18. The two wheels 22 are independently driven by a wheel motor 24 (see FIG. 3), and the carriage 18, that is, the robot 12 can be moved in any direction, front, back, left, and right. The slave wheel 22 is an auxiliary wheel that assists the wheel 20. Therefore, the robot 12 can move in the arranged space by autonomous control. However, the robot 12 may be fixedly arranged at a certain place.

台車18の上には、円柱形のセンサ取り付けパネル26が設けられ、このセンサ取り付けパネル26には、多数の赤外線距離センサ28が取り付けられる。これらの赤外線距離センサ28は、センサ取り付けパネル26すなわちロボット12の周囲の物体(人間や障害物など)との距離を測定するものである。   A cylindrical sensor mounting panel 26 is provided on the carriage 18, and a number of infrared distance sensors 28 are mounted on the sensor mounting panel 26. These infrared distance sensors 28 measure the distance from the sensor mounting panel 26, that is, an object (such as a human being or an obstacle) around the robot 12.

センサ取り付けパネル26の上には、胴体30が直立するように設けられる。また、胴体30の前方中央上部(人の胸に相当する位置)には、上述した赤外線距離センサ28がさらに設けられ、ロボット12の前方の主として人間との距離を計測する。また、胴体30には、その側面側上端部のほぼ中央から伸びる支柱32が設けられ、支柱32の上には、全方位カメラ34が設けられる。全方位カメラ34は、ロボット12の周囲を撮影するものであり、後述する眼カメラ58とは区別される。この全方位カメラ34としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。なお、これら赤外線距離センサ28および全方位カメラ34の設置位置は、当該部位に限定されず適宜変更され得る。   The body 30 is provided on the sensor mounting panel 26 so as to stand upright. In addition, the above-described infrared distance sensor 28 is further provided in the upper front upper portion of the body 30 (a position corresponding to a human chest), and measures the distance mainly to a human in front of the robot 12. Further, the body 30 is provided with a support column 32 extending from substantially the center of the upper end of the side surface, and an omnidirectional camera 34 is provided on the support column 32. The omnidirectional camera 34 captures the surroundings of the robot 12 and is distinguished from an eye camera 58 described later. As this omnidirectional camera 34, for example, a camera using a solid-state imaging device such as a CCD or a CMOS can be adopted. In addition, the installation positions of the infrared distance sensor 28 and the omnidirectional camera 34 are not limited to the portions, and can be changed as appropriate.

胴体30の両側面上端部(人の肩に相当する位置)には、それぞれ、肩関節36Rおよび肩関節36Lによって、上腕38Rおよび上腕38Lが設けられる。図示は省略するが、肩関節36Rおよび肩関節36Lは、それぞれ、直交する3軸の自由度を有する。すなわち、肩関節36Rは、直交する3軸のそれぞれの軸廻りにおいて上腕38Rの角度を制御できる。肩関節36Rの或る軸(ヨー軸)は、上腕38Rの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。同様にして、肩関節36Lは、直交する3軸のそれぞれの軸廻りにおいて上腕38Lの角度を制御できる。肩関節36Lの或る軸(ヨー軸)は、上腕38Lの長手方向(または軸)に平行な軸であり、他の2軸(ピッチ軸およびロール軸)は、その軸にそれぞれ異なる方向から直交する軸である。   An upper arm 38R and an upper arm 38L are provided at upper end portions on both sides of the body 30 (a position corresponding to a human shoulder) by a shoulder joint 36R and a shoulder joint 36L, respectively. Although illustration is omitted, each of the shoulder joint 36R and the shoulder joint 36L has three orthogonal degrees of freedom. That is, the shoulder joint 36R can control the angle of the upper arm 38R around each of the three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 36R is an axis parallel to the longitudinal direction (or axis) of the upper arm 38R, and the other two axes (pitch axis and roll axis) are orthogonal to the axis from different directions. It is an axis to do. Similarly, the shoulder joint 36L can control the angle of the upper arm 38L around each of three orthogonal axes. A certain axis (yaw axis) of the shoulder joint 36L is an axis parallel to the longitudinal direction (or axis) of the upper arm 38L, and the other two axes (pitch axis and roll axis) are orthogonal to the axis from different directions. It is an axis to do.

また、上腕38Rおよび上腕38Lのそれぞれの先端には、肘関節40Rおよび肘関節40Lが設けられる。図示は省略するが、肘関節40Rおよび肘関節40Lは、それぞれ1軸の自由度を有し、この軸(ピッチ軸)の軸回りにおいて前腕42Rおよび前腕42Lの角度を制御できる。   In addition, an elbow joint 40R and an elbow joint 40L are provided at the tips of the upper arm 38R and the upper arm 38L, respectively. Although illustration is omitted, each of the elbow joint 40R and the elbow joint 40L has one degree of freedom, and the angles of the forearm 42R and the forearm 42L can be controlled around this axis (pitch axis).

前腕42Rおよび前腕42Lのそれぞれの先端には、人の手に相当する球体44Rおよび球体44Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人間の手の形をした「手」を用いることも可能である。また、図示は省略するが、台車18の前面,肩関節36Rと肩関節36Lとを含む肩に相当する部位,上腕38R,上腕38L,前腕42R,前腕42L,球体44Rおよび球体44Lには、それぞれ、接触センサ(図3で包括的に示す)46が設けられる。台車18の前面の接触センサ46は、台車18への人間や他の障害物の接触を検知する。したがって、ロボット12は、その自身の移動中に障害物との接触が有ると、それを検知し、直ちに車輪20の駆動を停止してロボット12の移動を急停止させることができる。また、その他の接触センサ46は、当該各部位に触れたかどうかを検知する。なお、接触センサ46の設置位置は、当該部位に限定されず、適宜な位置(人の胸,腹,脇,背中および腰に相当する位置)に設けられてもよい。   A sphere 44R and a sphere 44L corresponding to a human hand are fixedly provided at the tips of the forearm 42R and the forearm 42L, respectively. However, when a finger or palm function is required, a “hand” in the shape of a human hand can be used. Although not shown, the front surface of the carriage 18, the portion corresponding to the shoulder including the shoulder joint 36 </ b> R and the shoulder joint 36 </ b> L, the upper arm 38 </ b> R, the upper arm 38 </ b> L, the forearm 42 </ b> R, the forearm 42 </ b> L, the sphere 44 </ b> R, and the sphere 44 </ b> L, A contact sensor (shown generically in FIG. 3) 46 is provided. The contact sensor 46 on the front surface of the carriage 18 detects contact of a person or another obstacle with the carriage 18. Therefore, the robot 12 can detect that there is a contact with an obstacle during its movement and immediately stop the driving of the wheel 20 to suddenly stop the movement of the robot 12. Further, the other contact sensors 46 detect whether or not the respective parts are touched. In addition, the installation position of the contact sensor 46 is not limited to the said site | part, and may be provided in an appropriate position (position corresponding to a person's chest, abdomen, side, back, and waist).

胴体30の中央上部(人の首に相当する位置)には首関節48が設けられ、さらにその上には頭部50が設けられる。図示は省略するが、首関節48は、3軸の自由度を有し、3軸の各軸廻りに角度制御可能である。或る軸(ヨー軸)はロボット12の真上(鉛直上向き)に向かう軸であり、他の2軸(ピッチ軸、ロール軸)は、それぞれ、それと異なる方向で直交する軸である。   A neck joint 48 is provided at the upper center of the body 30 (a position corresponding to a person's neck), and a head 50 is further provided thereon. Although illustration is omitted, the neck joint 48 has a degree of freedom of three axes, and the angle can be controlled around each of the three axes. A certain axis (yaw axis) is an axis directed directly above (vertically upward) of the robot 12, and the other two axes (pitch axis and roll axis) are axes orthogonal to each other in different directions.

頭部50には、人の口に相当する位置に、スピーカ52が設けられる。スピーカ52は、ロボット12が、それの周辺の人間に対して音声ないし音によってコミュニケーションを取るために用いられる。また、人の耳に相当する位置には、マイク54Rおよびマイク54Lが設けられる。以下、右のマイク54Rと左のマイク54Lとをまとめてマイク54ということがある。マイク54は、周囲の音、とりわけコミュニケーションを実行する対象である人間の声を取り込む。さらに、人の目に相当する位置には、眼球部56Rおよび眼球部56Lが設けられる。眼球部56Rおよび眼球部56Lは、それぞれ眼カメラ58Rおよび眼カメラ58Lを含む。以下、右の眼球部56Rと左の眼球部56Lとをまとめて眼球部56ということがある。また、右の眼カメラ58Rと左の眼カメラ58Lとをまとめて眼カメラ58ということがある。   The head 50 is provided with a speaker 52 at a position corresponding to a human mouth. The speaker 52 is used for the robot 12 to communicate with humans around it by voice or sound. A microphone 54R and a microphone 54L are provided at a position corresponding to a human ear. Hereinafter, the right microphone 54R and the left microphone 54L may be collectively referred to as a microphone 54. The microphone 54 captures ambient sounds, particularly a human voice that is an object for performing communication. Furthermore, an eyeball portion 56R and an eyeball portion 56L are provided at positions corresponding to human eyes. The eyeball portion 56R and the eyeball portion 56L include an eye camera 58R and an eye camera 58L, respectively. Hereinafter, the right eyeball portion 56R and the left eyeball portion 56L may be collectively referred to as the eyeball portion 56. Further, the right eye camera 58R and the left eye camera 58L may be collectively referred to as an eye camera 58.

眼カメラ58は、ロボット12に接近した人間の顔や他の部分ないし物体などを撮影して、それに対応する映像信号を取り込む。また、眼カメラ58は、上述した全方位カメラ34と同様のカメラを用いることができる。たとえば、眼カメラ58は、眼球部56内に固定され、眼球部56は、眼球支持部(図示せず)を介して頭部50内の所定位置に取り付けられる。図示は省略するが、眼球支持部は、2軸の自由度を有し、それらの各軸廻りに角度制御可能である。たとえば、この2軸の一方は、頭部50の上に向かう方向の軸(ヨー軸)であり、他方は、一方の軸に直交しかつ頭部50の正面側(顔)が向く方向に直行する方向の軸(ピッチ軸)である。眼球支持部がこの2軸の各軸廻りに回転されることによって、眼球部56ないし眼カメラ58の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。なお、上述のスピーカ52,マイク54および眼カメラ58の設置位置は、当該部位に限定されず、適宜な位置に設けられてよい。   The eye camera 58 captures a human face approaching the robot 12, other parts or objects, and captures a corresponding video signal. The eye camera 58 can be the same camera as the omnidirectional camera 34 described above. For example, the eye camera 58 is fixed in the eyeball unit 56, and the eyeball unit 56 is attached to a predetermined position in the head 50 via an eyeball support unit (not shown). Although illustration is omitted, the eyeball support portion has two degrees of freedom, and the angle can be controlled around each of these axes. For example, one of the two axes is an axis (yaw axis) in a direction toward the top of the head 50, and the other is orthogonal to the one axis and goes straight in a direction in which the front side (face) of the head 50 faces. It is an axis (pitch axis) in the direction to be performed. By rotating the eyeball support portion around each of the two axes, the tip (front) side of the eyeball portion 56 or the eye camera 58 is displaced, and the camera axis, that is, the line-of-sight direction is moved. It should be noted that the installation positions of the above-described speaker 52, microphone 54, and eye camera 58 are not limited to the portions, and may be provided at appropriate positions.

このように、この実施例のロボット12は、車輪20の独立2軸駆動,肩関節36の3自由度(左右で6自由度),肘関節40の1自由度(左右で2自由度),首関節48の3自由度および眼球支持部の2自由度(左右で4自由度)の合計17自由度を有する。   As described above, the robot 12 of this embodiment includes independent two-axis driving of the wheels 20, three degrees of freedom of the shoulder joint 36 (6 degrees of freedom on the left and right), and one degree of freedom of the elbow joint 40 (two degrees of freedom on the left and right). It has a total of 17 degrees of freedom: 3 degrees of freedom for the neck joint 48 and 2 degrees of freedom for the eyeball support (4 degrees of freedom on the left and right).

図3はロボット12の電気的な構成を示すブロック図である。この図3を参照して、ロボット12は、CPU60を含む。CPU60は、マイクロコンピュータ或いはプロセッサとも呼ばれ、バス62を介して、メモリ64,モータ制御ボード66,センサ入力/出力ボード68および音声入力/出力ボード70に接続される。   FIG. 3 is a block diagram showing the electrical configuration of the robot 12. With reference to FIG. 3, the robot 12 includes a CPU 60. The CPU 60 is also called a microcomputer or a processor, and is connected to the memory 64, the motor control board 66, the sensor input / output board 68, and the audio input / output board 70 via the bus 62.

メモリ64は、図示は省略をするが、ROM,HDDおよびRAMを含む。ROMおよびHDDには、ロボット12の動作を制御するための制御プログラムが予め記憶される。たとえば、各センサの出力(センサ情報)を検知するための検知プログラム、および外部コンピュータ(中央制御装置14および操作端末16など)との間で必要なデータやコマンドを送受信するための通信プログラムなどが記録される。また、RAMは、ワークメモリやバッファメモリとして用いられる。   The memory 64 includes a ROM, an HDD, and a RAM (not shown). In the ROM and the HDD, a control program for controlling the operation of the robot 12 is stored in advance. For example, a detection program for detecting the output (sensor information) of each sensor and a communication program for transmitting / receiving necessary data and commands to / from external computers (such as the central control device 14 and the operation terminal 16). To be recorded. The RAM is used as a work memory or a buffer memory.

モータ制御ボード66は、たとえばDSPで構成され、各腕や首関節および眼球部などの各軸モータの駆動を制御する。すなわち、モータ制御ボード66は、CPU60からの制御データを受け、右眼球部56Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ72」と示す)の回転角度を制御する。同様にして、モータ制御ボード66は、CPU60からの制御データを受け、左眼球部56Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ74」と示す)の回転角度を制御する。   The motor control board 66 is composed of, for example, a DSP, and controls driving of motors of axes such as arms, neck joints, and eyeballs. That is, the motor control board 66 receives control data from the CPU 60, and controls two motors (collectively indicated as “right eyeball motor 72” in FIG. 3) that control the angles of the two axes of the right eyeball portion 56R. Control the rotation angle. Similarly, the motor control board 66 receives control data from the CPU 60, and shows two motors for controlling the respective angles of the two axes of the left eyeball portion 56L (in FIG. 3, collectively referred to as “left eyeball motor 74”). ) To control the rotation angle.

また、モータ制御ボード66は、CPU60からの制御データを受け、右肩関節36Rの直交する3軸のそれぞれの角度を制御する3つのモータと右肘関節40Rの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ76」と示す)の回転角度を制御する。同様にして、モータ制御ボード66は、CPU60からの制御データを受け、左肩関節36Lの直交する3軸のそれぞれの角度を制御する3つのモータと左肘関節40Lの角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ78」と示す)の回転角度を制御する。   The motor control board 66 receives control data from the CPU 60, and includes three motors for controlling the angles of the three orthogonal axes of the right shoulder joint 36R and one motor for controlling the angle of the right elbow joint 40R. The rotation angles of a total of four motors (collectively indicated as “right arm motor 76” in FIG. 3) are controlled. Similarly, the motor control board 66 receives control data from the CPU 60, three motors for controlling the angles of the three orthogonal axes of the left shoulder joint 36L, and one motor for controlling the angle of the left elbow joint 40L. The rotation angles of a total of four motors (collectively indicated as “left arm motor 78” in FIG. 3) are controlled.

さらに、モータ制御ボード66は、CPU60からの制御データを受け、首関節48の直交する3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ80」と示す)の回転角度を制御する。そして、モータ制御ボード66は、CPU60からの制御データを受け、車輪20を駆動する2つのモータ(図3では、まとめて「車輪モータ24」と示す)の回転角度を制御する。なお、この実施例では、車輪モータ24を除くモータは、制御を簡素化するためにステッピングモータ(すなわち、パルスモータ)を用いる。ただし、車輪モータ24と同様に直流モータを用いるようにしてもよい。また、ロボット12の身体部位を駆動するアクチュエータは、電流を動力源とするモータに限らず適宜変更された、たとえば、他の実施例では、エアアクチュエータが適用されてもよい。   Further, the motor control board 66 receives control data from the CPU 60, and controls three motors that control the angles of the three orthogonal axes of the neck joint 48 (in FIG. 3, collectively indicated as "head motor 80"). Control the rotation angle. The motor control board 66 receives control data from the CPU 60 and controls the rotation angles of the two motors that drive the wheels 20 (collectively indicated as “wheel motors 24” in FIG. 3). In this embodiment, a motor other than the wheel motor 24 uses a stepping motor (that is, a pulse motor) in order to simplify the control. However, a DC motor may be used similarly to the wheel motor 24. The actuator that drives the body part of the robot 12 is not limited to a motor that uses a current as a power source, and may be changed as appropriate. For example, in another embodiment, an air actuator may be applied.

センサ入力/出力ボード68もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU60に与える。すなわち、赤外線距離センサ28のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード68を通じてCPU60に入力される。また、全方位カメラ34からの映像信号が、必要に応じてセンサ入力/出力ボード68で所定の処理を施してからCPU60に入力される。眼カメラ58からの映像信号も、同様にして、CPU60に入力される。また、上述した複数の接触センサ(図3では、まとめて「接触センサ46」と示す)からの信号がセンサ入力/出力ボード68を介してCPU60に与えられる。   Similarly, the sensor input / output board 68 is also constituted by a DSP, and takes in signals from each sensor and gives them to the CPU 60. That is, data relating to the reflection time from each of the infrared distance sensors 28 is input to the CPU 60 through the sensor input / output board 68. The video signal from the omnidirectional camera 34 is input to the CPU 60 after being subjected to predetermined processing by the sensor input / output board 68 as necessary. Similarly, the video signal from the eye camera 58 is also input to the CPU 60. Further, signals from the plurality of contact sensors described above (collectively indicated as “contact sensors 46” in FIG. 3) are provided to the CPU 60 via the sensor input / output board 68.

音声入力/出力ボード70もまた、同様に、DSPで構成され、CPU60から与えられる音声合成データに従った音声または声がスピーカ52から出力される。また、マイク54からの音声入力が、音声入力/出力ボード70を介してCPU60に与えられる。   Similarly, the voice input / output board 70 is also configured by a DSP, and voice or voice according to voice synthesis data provided from the CPU 60 is output from the speaker 52. Also, voice input from the microphone 54 is given to the CPU 60 via the voice input / output board 70.

また、CPU60は、バス62を介して通信LANボード82に接続される。通信LANボード82は、DSPで構成され、CPU60から与えられた送信データを無線通信装置84に与え、無線通信装置84から送信データを、ネットワーク100を介して外部コンピュータ(中央制御装置14および操作端末16など)に送信する。また、通信LANボード82は、無線通信装置84を介してデータを受信し、受信したデータをCPU60に与える。つまり、ロボット12は、通信LANボード82および無線通信装置84によって、中央制御装置14および操作端末16と無線通信を行うことができる。   The CPU 60 is connected to the communication LAN board 82 via the bus 62. The communication LAN board 82 is configured by a DSP and provides transmission data given from the CPU 60 to the wireless communication device 84, and sends the transmission data from the wireless communication device 84 to the external computer (the central control device 14 and the operation terminal via the network 100. 16). The communication LAN board 82 receives data via the wireless communication device 84 and gives the received data to the CPU 60. That is, the robot 12 can perform wireless communication with the central control device 14 and the operation terminal 16 by the communication LAN board 82 and the wireless communication device 84.

さらに、CPU60は、バス62を介して無線タグ読取装置86が接続される。無線タグ読取装置86は、アンテナ(図示せず)を介して、無線タグ(RFIDタグ)から送信される識別情報の重畳された電波を受信する。そして、無線タグ読取装置86は、受信した電波信号を増幅し、当該電波信号から識別信号を分離し、当該識別情報を復調(デコード)してCPU60に与える。無線タグは、イベント会場や家電量販店の販売フロアなどに居る人間に装着されており、無線タグ読取装置86は、通信可能範囲内の無線タグを検出する。なお、無線タグは、アクティブ型であってもよいし、無線タグ読み取り装置86から送信される電波に応じて駆動されるパッシブ型であってもよい。   Further, the wireless tag reader 86 is connected to the CPU 60 via the bus 62. The wireless tag reader 86 receives a radio wave superimposed with identification information transmitted from the wireless tag (RFID tag) via an antenna (not shown). The wireless tag reader 86 amplifies the received radio wave signal, separates the identification signal from the radio wave signal, demodulates (decodes) the identification information, and supplies the identification information to the CPU 60. The wireless tag is attached to a person in an event venue or a sales floor of a home appliance mass retailer, and the wireless tag reader 86 detects a wireless tag within a communicable range. Note that the wireless tag may be an active type or a passive type that is driven in accordance with radio waves transmitted from the wireless tag reader 86.

図1に戻って、中央制御装置14は、当該ロボット遠隔操作システム10におけるオペレータの呼び出しを制御するコンピュータであり、ロボット12および操作端末16の状態を示す情報を管理する。中央制御装置14は、図示は省略するがCPUを含み、CPUにはメモリやデータベース、通信装置などが接続されている。中央制御装置14は、通信装置を介してネットワーク100に有線または無線で接続されている。   Returning to FIG. 1, the central control device 14 is a computer that controls the call of the operator in the robot remote operation system 10, and manages information indicating the states of the robot 12 and the operation terminal 16. Although not shown, the central control device 14 includes a CPU, and a memory, a database, a communication device, and the like are connected to the CPU. The central control device 14 is connected to the network 100 via a communication device in a wired or wireless manner.

メモリには、当該中央制御装置14の動作を制御するための制御プログラムおよび必要なデータが記憶される。制御プログラムは、たとえば、ロボット12および操作端末16のそれぞれとの間で必要なデータやコマンドを送受信するための通信プログラムおよびロボット12からオペレータの呼び出し要求があったときに適切なオペレータ(操作端末16)を選択するための選択プログラムなどを含む。   The memory stores a control program and necessary data for controlling the operation of the central controller 14. The control program includes, for example, a communication program for transmitting and receiving necessary data and commands between the robot 12 and the operation terminal 16, and an appropriate operator (operation terminal 16 when an operator call request is received from the robot 12. ) Including a selection program for selecting.

また、データベースには、ロボット12の情報を示すロボット情報テーブル(図4参照)と、操作端末16の情報を示すオペレータ端末情報テーブル(図5参照)とが記憶される。また、データベースには、イベント会場および家電量販店の販売フロアなどに存在する人間の情報(たとえば、無線タグの識別情報,使用言語および行動履歴)なども記憶される。   The database stores a robot information table (see FIG. 4) indicating information on the robot 12, and an operator terminal information table (see FIG. 5) indicating information on the operation terminal 16. The database also stores human information (for example, wireless tag identification information, language used, and action history) existing at event venues and sales floors of home appliance mass retailers.

図4を参照して、ロボット情報テーブルには、ロボット名,状態,位置および対話相手などの情報が記憶される。ロボット名の欄には、ロボット12の名前(たとえば、R1,R2,…)が登録される。状態の欄には、該当するロボット12の現在の状態が登録される。具体的には、「BUSY」または「IDLE」が登録される。BUSYは、家電量販店の販売フロアにおいて人間と対話などのコミュニケーション行動を実行している状態などを意味する。IDLEは人間と対話などのコミュニケーション行動を実行していない状態、すなわち、空いている状態を意味する。   Referring to FIG. 4, the robot information table stores information such as the robot name, state, position, and conversation partner. The name of the robot 12 (for example, R1, R2,...) Is registered in the robot name column. In the status column, the current status of the corresponding robot 12 is registered. Specifically, “BUSY” or “IDLE” is registered. BUSY means a state in which a communication action such as dialogue with a person is executed on the sales floor of a consumer electronics retailer. IDLE means a state in which a communication action such as dialogue with a person is not executed, that is, a free state.

図4に戻って、位置の欄には、当該ロボット12の現在位置の情報が登録される。この実施例では、当該ロボット12の配置された建物や会場などの場所を示す情報および当該場所においての当該ロボット12が現在存在している位置の座標が登録される。具体的には、ロボット名「R1」に対応して、位置の欄に、「家電量販店」,「販売フロア」および「120,140」が登録されている。このことから、ロボット名「R1」のロボット12は、「家電量販店」の「販売フロア」に配置され、その現在位置は、座標(120,140)で表される位置であることが分かる。   Returning to FIG. 4, information on the current position of the robot 12 is registered in the position column. In this embodiment, information indicating a place such as a building or a venue where the robot 12 is arranged, and coordinates of a position where the robot 12 currently exists in the place are registered. Specifically, “home appliance mass retailer”, “sales floor”, and “120, 140” are registered in the position column corresponding to the robot name “R1”. From this, it can be seen that the robot 12 with the robot name “R1” is placed on the “sales floor” of the “home appliance mass retailer” and its current position is a position represented by coordinates (120, 140).

なお、中央制御装置14のメモリないしデータベースには、ロボット12が配置される場所等の地図(マップ)データが記憶され、マップデータをXY座標で表し、これによって、ロボット12の位置を座標で表している。ただし、ロボット12は移動するため、その移動制御量をロボット12から得たり、別途環境センサ(カメラ,赤外線センサなど)を用いてロボット12の位置を監視したりするようにしてもよい。   The memory or database of the central control unit 14 stores map (map) data such as a place where the robot 12 is arranged, and the map data is expressed in XY coordinates, thereby expressing the position of the robot 12 in coordinates. ing. However, since the robot 12 moves, the amount of movement control may be obtained from the robot 12, or the position of the robot 12 may be monitored using a separate environmental sensor (camera, infrared sensor, etc.).

対話相手の欄には、当該ロボット12が現在コミュニケーション行動を実行している人間の情報が登録される。具体的には、対話相手の識別情報(ID)に対応付けて、名前(たとえば、山田太郎),使用言語(たとえば、日本語)および現在位置(座標)などが登録される。また、当該ロボット12が人間と対話していない場合にはコミュニケーション行動を行う対象が存在しないことを表す「NULL」が登録される。   In the dialogue partner column, information on the person who is currently performing the communication action of the robot 12 is registered. Specifically, a name (for example, Taro Yamada), a language to be used (for example, Japanese), a current position (coordinates), and the like are registered in association with identification information (ID) of the conversation partner. In addition, when the robot 12 is not interacting with a human, “NULL” indicating that there is no target for communication behavior is registered.

中央制御装置14は、ロボット12との通信によって当該ロボット12の状態を示す情報,位置を示す情報および対話相手を示す情報などを一定時間ごとに取得して、ロボット情報テーブルを作成および更新する。図4には示していないが、たとえば、対話相手の来訪回数や来訪してからの経過時間およびロボット12が当該相手にすでに実行した行動の履歴(たとえば、挨拶を済ませたなど)などの情報も必要に応じてデータベースから取得して適宜登録するようにしてもよい。なお、ロボット情報テーブルには、当該ロボット12のアドレス(IPアドレス)も登録されてもよい。   The central control device 14 creates and updates the robot information table by acquiring information indicating the state of the robot 12, information indicating the position, information indicating the conversation partner, and the like at regular intervals through communication with the robot 12. Although not shown in FIG. 4, for example, information such as the number of visits of the conversation partner, the elapsed time since the visit, and the history of actions that the robot 12 has already performed on the partner (for example, greetings have been completed, etc.) If necessary, it may be acquired from the database and registered as appropriate. In the robot information table, the address (IP address) of the robot 12 may also be registered.

図5を参照して、オペレータ端末情報テーブルには、ID,名前,状態,所在地,ステータス値およびスキルリストなどの情報が登録される。IDの欄には、操作端末16またはこの操作端末16を操作するオペレータを識別するための識別情報が登録される。この実施例では、IDは数値で表される。ただし、「id_max」は、操作端末ないしオペレータの最大値に対応する定数である。名前の欄には、当該操作端末16を操作するオペレータの名前が登録される。状態の欄には、当該操作端末16の現在の状態が登録される。具体的には「IDLE」および「BUSY−R1」などが記載される。「IDLE」は、現在ロボット12を操作せずに、中央制御装置14からの呼び出し待ちの状態(待機の状態)を意味する。「BUSY」は、ロボット12を遠隔操作している状態を意味し、たとえば、「BUSY−R1」と記載されている場合には、ロボット名「R1」のロボット12を操作している状態であることが分かる。所在地の欄には、当該操作端末16が設置されている場所(都道府県または地域など)が登録される。   Referring to FIG. 5, information such as ID, name, state, location, status value, and skill list is registered in the operator terminal information table. Identification information for identifying the operation terminal 16 or an operator who operates the operation terminal 16 is registered in the ID column. In this embodiment, the ID is represented by a numerical value. However, “id_max” is a constant corresponding to the maximum value of the operation terminal or the operator. In the name column, the name of the operator who operates the operation terminal 16 is registered. In the status column, the current status of the operation terminal 16 is registered. Specifically, “IDLE” and “BUSY-R1” are described. “IDLE” means a state of waiting for a call from the central control device 14 without operating the robot 12 (standby state). “BUSY” means a state where the robot 12 is remotely operated. For example, when “BUSY-R1” is described, the robot 12 having the robot name “R1” is operated. I understand that. The location (prefecture or region) where the operation terminal 16 is installed is registered in the location column.

ステータス値の情報は、さらに、経験,言語数およびスキル数の情報に分類される。このステータス値は、オペレータを検索するときに、ロボット遠隔操作システム10の使用者によって任意に決められた条件(使用者条件)と対比される情報であり、使用者によって設定および変更が可能である。なお、オペレータ検索処理(図13参照)の詳細については後述する。経験の欄には、ロボット12の操作歴(年月)が登録される。言語数の欄には、当該オペレータが話すことのできる言語の数が登録される。たとえば、当該オペレータが、日本語,英語および独語を話すことができる場合には、言語数の欄には「3」が登録される。スキル数の欄には、オペレータが持つ能力や知識など(以下、「スキル」という。)の数が登録される。具体的なスキルの内容については、スキルリストに登録される。スキルリストの情報には、各オペレータのスキルが記述される。このスキルリストは、オペレータを選択するときに、ロボット12が要求する条件と対比される。なお、オペレータ選択処理(図8−図11参照)の詳細については後述する。   The status value information is further classified into information on experience, the number of languages, and the number of skills. This status value is information to be compared with conditions (user conditions) arbitrarily determined by the user of the robot remote control system 10 when searching for an operator, and can be set and changed by the user. . Details of the operator search process (see FIG. 13) will be described later. In the experience column, the operation history (year / month) of the robot 12 is registered. In the number of languages column, the number of languages that the operator can speak is registered. For example, when the operator can speak Japanese, English, and German, “3” is registered in the number of languages column. The number of skills, knowledge, etc. (hereinafter referred to as “skills”) possessed by the operator is registered in the skill number column. Specific skill contents are registered in the skill list. The skill list information describes the skill of each operator. This skill list is compared with conditions required by the robot 12 when selecting an operator. The details of the operator selection process (see FIGS. 8 to 11) will be described later.

スキルリストには、言語およびスキル1,スキル2,…,スキルM(M:自然数)の情報を含む。言語の欄には、当該オペレータが話すことのできる言語が登録される。スキル1,スキル2,…,スキルMの欄には、当該オペレータのスキルとして、得意とする分野または担当する分野(内容)が登録される。なお、オペレータ端末情報テーブルには、操作端末16のアドレス(IPアドレス)も登録されてよい。   The skill list includes information on language, skill 1, skill 2,..., Skill M (M: natural number). In the language column, languages that the operator can speak are registered. In the fields of Skill 1, Skill 2,..., Skill M, a field of expertise or a field in charge (content) is registered as the skill of the operator. Note that the address (IP address) of the operation terminal 16 may also be registered in the operator terminal information table.

中央制御装置14は、たとえば、操作端末16との通信によって、当該操作端末16の位置,状態,所在地,ステータス値およびスキルリストの情報を一定時間毎に取得して、オペレータ端末情報テーブルを生成および更新する。或いは、状態,所在地,ステータス値およびスキルリストの変更があった場合には、当該操作端末16を操作するオペレータから中央制御装置14の管理者に通知し、中央制御装置14の管理者がオペレータ端末情報テーブルを生成および更新するようにしてもよい。   For example, the central control device 14 obtains information on the position, state, location, status value, and skill list of the operation terminal 16 at regular intervals by communication with the operation terminal 16, and generates an operator terminal information table. Update. Alternatively, when there is a change in the state, location, status value, and skill list, the operator operating the operation terminal 16 notifies the administrator of the central control device 14, and the administrator of the central control device 14 The information table may be generated and updated.

たとえば、このオペレータ端末情報テーブルを参照すると、IDが「1」の操作端末16は、「大阪」に設置されており、当該操作端末16を操作するオペレータの名前が「山田」であることが分かる。また、当該オペレータ(山田)は、「日本語」を話すことができ、言語数は「1」であり、ロボット12の操作歴が「36ヶ月」であることが分かる。さらに、当該操作端末16の現在の状態が「IDLE」であることが分かる。さらにまた、当該オペレータ(山田)のスキル数は「1」であり、スキル1の内容から「パソコン担当」であることが分かる。   For example, referring to this operator terminal information table, it can be seen that the operation terminal 16 with ID “1” is installed in “Osaka” and the name of the operator who operates the operation terminal 16 is “Yamada”. . The operator (Yamada) can speak “Japanese”, the number of languages is “1”, and the operation history of the robot 12 is “36 months”. Further, it can be seen that the current state of the operation terminal 16 is “IDLE”. Furthermore, the number of skills of the operator (Yamada) is “1”, and it can be seen from the contents of skill 1 that “person in charge of personal computer”.

同様に、IDが「2」の操作端末16は、「東京」に設置されており、当該操作端末16を操作するオペレータの名前が「鈴木」であることが分かる。また、当該オペレータ(鈴木)は、「日本語」および「英語」を話すことができ、言語数は「2」であり、ロボット12の操作歴は「2ヶ月」であることが分かる。さらに、当該操作端末16の現在の状態が「IDLE」であることが分かる。さらにまた、当該オペレータ(鈴木)のスキル数は「2」であり、スキル1の内容から「iPod担当」(「iPod」は、登録商標である)であることが分かり、スキル2の内容から「ラグビー」の知識が有ることが分かる。   Similarly, the operation terminal 16 with the ID “2” is installed in “Tokyo”, and it is understood that the name of the operator who operates the operation terminal 16 is “Suzuki”. The operator (Suzuki) can speak “Japanese” and “English”, the number of languages is “2”, and the operation history of the robot 12 is “2 months”. Further, it can be seen that the current state of the operation terminal 16 is “IDLE”. Furthermore, the number of skills of the operator (Suzuki) is “2”, and the content of skill 1 indicates that “iPod is in charge” (“iPod” is a registered trademark). You can see that there is knowledge of "Rugby".

さらに、操作端末IDが「id_max」の操作端末16は、「福岡」に設置されており、当該操作端末16を操作するオペレータの名前が「宮崎」であることが分かる。また、当該オペレータ(宮崎)は、「日本語」,「英語」および「独語」を話すことができ、言語数は「3」であり、ロボット12の操作歴は「12ヶ月」であることが分かる。さらに、当該操作端末16の現在状態が「BUSY−R1」(ロボットR1を操作している状態)であることが分かる。さらにまた、当該オペレータ(宮崎)のスキル数は「M」であり、スキル1の内容から「家電担当」であることが分かり、スキル2の内容から「サッカー」の知識が有ることが分かり、スキルMの内容から「野球」の知識が有ることが分かる。   Further, it is understood that the operation terminal 16 having the operation terminal ID “id_max” is installed in “Fukuoka”, and the name of the operator who operates the operation terminal 16 is “Miyazaki”. The operator (Miyazaki) can speak “Japanese”, “English”, and “German”, the number of languages is “3”, and the operation history of the robot 12 is “12 months”. I understand. Further, it can be seen that the current state of the operation terminal 16 is “BUSY-R1” (a state in which the robot R1 is being operated). Furthermore, the number of skills of the operator (Miyazaki) is “M”. From the contents of skill 1, it is understood that the person is “in charge of home appliances”, and from the contents of skill 2, it is understood that there is knowledge of “soccer”. It can be seen from the contents of M that there is knowledge of “baseball”.

なお、図示は省略するが、操作端末16をオペレータが操作していない場合(オフラインの場合)は、「NULL」(すなわち、遠隔操作不能な状態)と登録されてもよい。   Although illustration is omitted, when the operation terminal 16 is not operated by the operator (when offline), “NULL” (that is, a state in which remote operation is not possible) may be registered.

図1に示した操作端末16は、コンピュータであり、図示は省略するがCPUを含み、CPUにはメモリ,表示装置,入力装置,スピーカ,マイクおよび通信装置などが接続される。操作端末16は、通信装置を介してネットワーク100に有線または無線で接続されている。メモリには、当該操作端末16の動作を制御するための制御プログラムおよび必要なデータが記録される。制御プログラムは、たとえば、ロボット12および中央制御装置14との間で必要なデータやコマンドを送受信するための通信プログラム、入力装置から入力された操作コマンドを検出する検出プログラムおよび表示装置に画像などを表示するための表示プログラムなどを含む。   The operation terminal 16 shown in FIG. 1 is a computer and includes a CPU (not shown). A memory, a display device, an input device, a speaker, a microphone, a communication device, and the like are connected to the CPU. The operation terminal 16 is connected to the network 100 via a communication device in a wired or wireless manner. In the memory, a control program and necessary data for controlling the operation of the operation terminal 16 are recorded. The control program includes, for example, a communication program for transmitting and receiving necessary data and commands between the robot 12 and the central control device 14, a detection program for detecting an operation command input from the input device, and an image on the display device. Includes a display program for display.

表示装置は、LCDやCRTであり、この表示装置には、後述するように、GUIとしてロボットカメラ画像212,ロボット情報214および操作パネル216などを含む遠隔操作画面210(図6参照)が表示される。入力装置はコンピュータマウス,キーボードおよびタッチパネルなどである。たとえば、オペレータは、表示装置に表示された遠隔操作画面210を見て入力装置を操作することによって、ロボット12を遠隔操作するための遠隔操作コマンドを入力することができる。スピーカは、主として遠隔操作するロボット12のマイク54を通して検出された人間の音声を出力する。さらに、マイクは、主として、オペレータの音声を検出し、オペレータの音声はロボット12のスピーカ52を通じて出力される。   The display device is an LCD or CRT. As will be described later, a remote operation screen 210 (see FIG. 6) including a robot camera image 212, robot information 214, an operation panel 216, and the like is displayed on the display device. The The input device is a computer mouse, a keyboard, a touch panel, or the like. For example, the operator can input a remote operation command for remotely operating the robot 12 by operating the input device while viewing the remote operation screen 210 displayed on the display device. The speaker outputs a human voice mainly detected through the microphone 54 of the robot 12 that is remotely operated. Further, the microphone mainly detects the voice of the operator, and the voice of the operator is output through the speaker 52 of the robot 12.

図6を参照して、この遠隔操作画面210では、たとえば、ロボットカメラ画像212、ロボット情報214および操作パネル216が表示される。ロボットカメラ画像212には、ロボット12から受信した眼カメラ58の撮影画像が表示される。これによって、オペレータは、ロボット12の眼カメラ58が捕らえている画像、たとえば、対話している人間をリアルタイムで見ることができる。   Referring to FIG. 6, on remote operation screen 210, for example, robot camera image 212, robot information 214, and operation panel 216 are displayed. In the robot camera image 212, a captured image of the eye camera 58 received from the robot 12 is displayed. Thus, the operator can see an image captured by the eye camera 58 of the robot 12, for example, a human being interacting in real time.

ロボット情報214には、当該ロボット12の情報、状況および対話相手の情報などが表示される。具体的には、当該ロボット12の配置された場所(イベント会場や家電量販店など),名前(もしくは識別情報),配置された場所の地図および対話している人間の情報が表示される。地図には、ロボット12および対話相手を示すアイコンが各存在位置に対応して表示される。これによって、ロボット12が設置場所のどこに存在しているのか、対話相手がロボット12に対してどこに存在しているのかなどを、オペレータは容易に把握することができる。   In the robot information 214, information on the robot 12, the situation, information on the conversation partner, and the like are displayed. Specifically, the place where the robot 12 is placed (such as an event venue or a home appliance mass retailer), the name (or identification information), a map of the place where the robot 12 is placed, and information on the person who is interacting are displayed. On the map, icons indicating the robot 12 and the conversation partner are displayed corresponding to each location. Accordingly, the operator can easily grasp where the robot 12 is located at the installation location and where the conversation partner is located with respect to the robot 12.

なお、操作端末16は、地図情報を予め記憶しておいてもよいし、中央制御装置14から当該ロボット12に関する情報とともに受信するようにしてもよい。また、ロボット12および対話相手の位置は、たとえばロボット12から一定時間ごとに操作端末16に送信される。ロボット12は、初期の配置位置および向きを記憶しているので、自分の現在の位置および向きを常に把握し、赤外線距離センサ28の出力情報と自分の位置などから対話相手のおよその位置を推定できる。また、地図には、その場所に存在する対話相手以外の人間を示すアイコンも表示されてよい。この場合には、オペレータはその場所におけるロボット12の状況をさらに詳細に知ることができる。   The operation terminal 16 may store map information in advance or may receive the map information together with information related to the robot 12 from the central control device 14. The positions of the robot 12 and the conversation partner are transmitted from the robot 12 to the operation terminal 16 at regular intervals, for example. Since the robot 12 stores the initial position and orientation, the robot 12 always knows its current position and orientation, and estimates the approximate position of the conversation partner from the output information of the infrared distance sensor 28 and its own position. it can. In addition, an icon indicating a person other than the conversation partner existing at the place may be displayed on the map. In this case, the operator can know the situation of the robot 12 at the location in more detail.

また、ロボット12の配置場所における人間の位置情報は、周囲に設置された天井カメラまたは無線タグ読取装置などのような環境のセンサを用いて、当該環境のセンサと接続された他のコンピュータで検出してよく、当該他のコンピュータからロボット12に与え、ロボット12から操作端末16に送信されてもよい。または、当該位置情報は上述の他のコンピュータから中央制御装置14を経由して、操作端末16に送信されてもよい。また、環境のセンサによってロボット12の位置なども検出可能であるので、ロボット12は、自分の位置および向きなどの情報も、人間の位置情報などとともに上述の他のコンピュータから取得してもよい。   Further, the position information of the person at the location where the robot 12 is arranged is detected by another computer connected to the sensor of the environment using a sensor of the environment such as a ceiling camera or a wireless tag reader installed in the surroundings. Alternatively, it may be given from the other computer to the robot 12 and transmitted from the robot 12 to the operation terminal 16. Alternatively, the position information may be transmitted from the other computer described above to the operation terminal 16 via the central control device 14. In addition, since the position of the robot 12 and the like can be detected by the environmental sensor, the robot 12 may acquire information such as its own position and orientation from the above-mentioned other computer together with the human position information.

また、対話している人間の情報としては、名前,所属(たとえば、カウンターの人間や来客),来店回数,前回の来店日,今回の来店後の経過時間およびロボット12が当該相手にすでに行ったコミュニケーション行動の履歴などが表示される。これによって、オペレータは、ロボット12の対話相手の情報を知ることができる。対話相手の情報は、中央制御装置14から操作端末16に送信される。なお、これらオペレータに提示される情報は一例であり、ロボット情報214には適宜適切な情報が表示される。このようなロボット情報214によって、オペレータは、ロボット12および対話相手の情報ならびに両者の置かれている状況などを容易に把握することができる。   In addition, as information of the person who is interacting, the name, affiliation (for example, counter person or visitor), the number of visits to the store, the date of the previous visit, the elapsed time since this visit, and the robot 12 has already performed for the partner A history of communication behavior is displayed. As a result, the operator can know information on the conversation partner of the robot 12. Information on the conversation partner is transmitted from the central controller 14 to the operation terminal 16. Note that the information presented to these operators is an example, and appropriate information is appropriately displayed in the robot information 214. With such robot information 214, the operator can easily grasp the information of the robot 12 and the conversation partner and the situation where both are placed.

さらに、ロボット12と対話相手が話している場合には、ロボット12から音声情報が送信されて、操作端末16のスピーカから当該音声が出力される。したがって、オペレータは、さらに対話相手の言葉を聞くことによって、現在の状況をより容易に把握することができる。また、オペレータは、遠隔操作画面でロボット12の状況を確認しながら、対話相手からの質問の内容を容易に判断することができるため、質問に対する回答を操作端末16およびロボット12を介して、対話相手に答えることができる。   Further, when the robot 12 and the conversation partner are talking, voice information is transmitted from the robot 12 and the voice is output from the speaker of the operation terminal 16. Therefore, the operator can grasp the current situation more easily by further listening to the conversation partner's words. In addition, since the operator can easily determine the contents of the question from the conversation partner while confirming the status of the robot 12 on the remote operation screen, the answer to the question is interactively communicated via the operation terminal 16 and the robot 12. You can answer the other party.

操作パネル216では、オペレータが入力装置を操作することにより、ロボット12の動作を制御する操作コマンドが入力される。たとえば、図6に示すように、操作パネル216には、移動を指示するためのボタン,コミュニケーション行動を指示するためのボタンおよび遠隔操作の終了を指示するためのボタンなどが設けられる。具体的には、「前進」ボタンは、ロボット12を前進させるためのボタンである。オペレータが、「前進」ボタンを選択すると、ロボット12は、たとえば、一定距離だけ前進する。同様に、「後退」ボタンはロボット12を後退させ、「右」ボタンはロボット12を右旋回させ、「左」ボタンはロボット12を左旋回させる。また、「お辞儀」ボタンは、ロボット12にお辞儀というコミュニケーション行動を実行させるためのボタンである。具体的には、オペレータが「お辞儀」ボタンを選択すると、ロボット12は、首関節48を制御して頭部50を下に向け、すなわち、お辞儀をする。また、「右指差し」のボタンは、ロボット12に右指差しというコミュニケーション行動を実行させためのボタンである。具体的には、オペレータが「右指差し」のボタンを選択すると、ロボット12は、右肩関節36Rおよび右肘関節40Rを制御して腕を前方に上げる。同様にして、操作パネル216に表示されたボタンをオペレータが選択することにより、ロボット12に、うなずき、左指差しなどの身振りや発話を含む所定のコミュニケーション行動を実行させることができる。また、「終了」ボタンは、遠隔操作を終了させるためのボタンである。オペレータが「終了」ボタンを選択すると、ロボット12は遠隔操作モードから自律制御モードに移行する。   On the operation panel 216, an operation command for controlling the operation of the robot 12 is input by the operator operating the input device. For example, as shown in FIG. 6, the operation panel 216 is provided with a button for instructing movement, a button for instructing communication behavior, a button for instructing the end of remote operation, and the like. Specifically, the “forward” button is a button for moving the robot 12 forward. When the operator selects the “forward” button, the robot 12 moves forward, for example, by a certain distance. Similarly, the “reverse” button causes the robot 12 to retract, the “right” button causes the robot 12 to turn right, and the “left” button causes the robot 12 to turn left. The “bow” button is a button for causing the robot 12 to execute a communication action of bowing. Specifically, when the operator selects the “bow” button, the robot 12 controls the neck joint 48 and turns the head 50 downward, that is, bows. The “right pointing” button is a button for causing the robot 12 to execute a communication action of pointing right. Specifically, when the operator selects the “right finger” button, the robot 12 controls the right shoulder joint 36R and the right elbow joint 40R to raise the arm forward. Similarly, when the operator selects a button displayed on the operation panel 216, the robot 12 can execute a predetermined communication action including gestures and speech such as nodding and pointing left. The “end” button is a button for ending the remote operation. When the operator selects the “end” button, the robot 12 shifts from the remote operation mode to the autonomous control mode.

操作端末16は、中央制御装置14に選ばれたオペレータに基づいて呼び出される。対話相手の質問は、ロボット12のマイク54によって取得され、ネットワーク100を介してスピーカから出力される。オペレータは、対話相手がした質問を聞くと、操作パネル216に対応するコミュニケーション行動や、オペレータ自身の音声などで対話相手の質問に答えることで対応する。   The operation terminal 16 is called based on the operator selected by the central controller 14. The question of the conversation partner is acquired by the microphone 54 of the robot 12 and is output from the speaker via the network 100. When the operator hears the question asked by the conversation partner, the operator responds by answering the question of the conversation partner with the communication behavior corresponding to the operation panel 216 or the operator's own voice.

このロボット遠隔操作システム10では、上述したように、ロボット12は、通常、自律制御によって、人間との間でコミュニケーション行動を行い、受付や案内などのサービスを提供する。しかし、自律制御だけでは対応することが難しい状況になった場合など、必要に応じて、当該ロボット12は、操作端末16つまりオペレータを呼び出す。ロボット12には、図示は省略するが、オペレータを呼び出すための条件(オペレータ呼出条件)が予めメモリ64に記憶されている。ロボット12は、オペレータ呼出条件を満足すると判定した場合に、オペレータを呼び出す。ロボット12は、中央制御装置14にオペレータの呼出要求を送信する。中央制御装置14は、オペレータの呼出要求を受けると、オペレータを選択する。簡単に説明すると、ロボット12が対話(コミュニケーション)する人間が要求する条件(質問など)を検出し、この条件に合致する1または複数のオペレータを選択する。そして、選択したオペレータにロボット情報を送信して、各オペレータが操作する操作端末16とロボット12とを通信可能に接続される。   In the robot remote operation system 10, as described above, the robot 12 usually performs communication behavior with humans by autonomous control and provides services such as reception and guidance. However, the robot 12 calls the operation terminal 16, that is, the operator as necessary, such as when it becomes difficult to deal with by autonomous control alone. Although not shown, the robot 12 stores in advance a condition for calling an operator (operator calling condition) in the memory 64. When it is determined that the operator calling condition is satisfied, the robot 12 calls the operator. The robot 12 transmits an operator call request to the central controller 14. When the central control device 14 receives a call request from the operator, the central control device 14 selects the operator. Briefly, a condition (question or the like) required by a person with whom the robot 12 interacts (communications) is detected, and one or a plurality of operators that meet this condition are selected. Then, the robot information is transmitted to the selected operator, and the operation terminal 16 operated by each operator and the robot 12 are communicably connected.

具体的には、中央制御装置14のCPUは、図7−図14に示す処理を含む、複数の処理を並行的に実行する。また、ロボット12のCPU60は、図16−図18に示す処理を含む、複数の処理を並行的に実行する。さらに、操作端末16のCPUは、図19に示す遠隔操作対応処理を含む、複数の処理を並行的に実行する。   Specifically, the CPU of the central control device 14 executes a plurality of processes in parallel, including the processes shown in FIGS. Further, the CPU 60 of the robot 12 executes a plurality of processes in parallel including the processes shown in FIGS. Furthermore, the CPU of the operation terminal 16 executes a plurality of processes in parallel including the remote operation handling process shown in FIG.

図7に示すように、中央制御装置14のCPUは、全体処理を開始すると、ステップS1で、各操作端末16の状態を取得し、テーブルを更新する。具体的には、中央制御装置14のCPUは、各操作端末16から、その位置,オペレータの情報および現在の使用状況などを含む情報を取得し、図5に示したようなオペレータ端末情報テーブルを更新する。次のステップS3では、各ロボット12の状態を取得し、テーブルを更新する。具体的には、中央制御装置14のCPUは、各ロボット12から、当該ロボット12の位置,現在の作動状態および対話相手の情報などを含む情報を取得し、図4に示したようなロボット情報テーブルを更新する。   As shown in FIG. 7, when starting the overall processing, the CPU of the central control device 14 acquires the state of each operation terminal 16 and updates the table in step S1. Specifically, the CPU of the central control unit 14 acquires information including the position, operator information, current usage status, and the like from each operation terminal 16, and creates an operator terminal information table as shown in FIG. Update. In the next step S3, the state of each robot 12 is acquired and the table is updated. Specifically, the CPU of the central controller 14 acquires information including the position of the robot 12, the current operating state, information on the conversation partner, and the like from each robot 12, and the robot information as illustrated in FIG. 4. Update the table.

続いて、ステップS5では、ロボットxからの呼び出しがあるか否か、すなわち、或るロボット12からのオペレータ呼び出し要求を受信したか否かを判断する。ここでは、「ロボットx」は、複数台のロボット12のうちの或る1台のロボット12を意味する。ステップS5でNOであれば、すなわちロボットxからの呼び出しが無ければ、ステップS15で、全体処理を終了するか否かを判断する。ここでは、たとえば、ロボット遠隔操作システム10の使用者ないし中央制御装置14の管理者から終了指示が与えられたかどうかを判断する。ステップS15でYESであれば、つまり終了指示があれば、そのまま全体処理を終了する。一方、ステップS15でNOであれば、つまり終了指示がなければ、ステップS1に戻る。このように、中央制御装置14では、オペレータ操作端末テーブルの更新、ロボット情報テーブルの更新および呼び出し要求の有無の判断が一定時間毎に繰り返し実行される。   Subsequently, in step S5, it is determined whether there is a call from the robot x, that is, whether an operator call request from a certain robot 12 is received. Here, “robot x” means one of the plurality of robots 12. If “NO” in the step S5, that is, if there is no call from the robot x, it is determined whether or not the entire process is ended in a step S15. Here, for example, it is determined whether or not an end instruction is given from the user of the robot remote control system 10 or the administrator of the central controller 14. If “YES” in the step S15, that is, if there is an end instruction, the entire process is ended as it is. On the other hand, if “NO” in the step S15, that is, if there is no end instruction, the process returns to the step S1. As described above, in the central control device 14, the update of the operator operation terminal table, the update of the robot information table, and the determination of the presence / absence of a call request are repeatedly executed at regular intervals.

また、ステップS5でYESであれば、すなわちロボットxからの呼び出しがあれば、ステップS7で、後述するオペレータ選択処理(図8−図11参照)を行う。次のステップS9では、オペレータOPが選択されたか否かを判断する。この「オペレータOPk」は、オペレータ選択処理で選択された1または複数のオペレータを意味する。ただし、オペレータが選択されていない場合もある。つまり、変数kは0,1,…,j(最大値)のいずれかの値を取る。ステップS9でNOであれば、すなわち、1人もオペレータOPが選択されていない場合には、ステップS13で、オペレータの呼び出しを要求してきたロボットxに「エラー」を送信して、ステップS15に進む。つまり、中央制御装置14のCPUは、ロボットxを操作するオペレータOP(操作端末16)が存在しないことをロボット12に伝える。 If YES in step S5, that is, if there is a call from the robot x, an operator selection process (see FIGS. 8 to 11) described later is performed in step S7. In the next step S9, it is determined whether or not the operator OP k has been selected. The “operator OP k ” means one or more operators selected in the operator selection process. However, the operator may not be selected. That is, the variable k takes one of 0, 1,..., J (maximum value). If “NO” in the step S9, that is, if no operator OP k is selected, an “error” is transmitted to the robot x that has requested the operator to be called in a step S13, and the process proceeds to the step S15. move on. That is, the CPU of the central controller 14 informs the robot 12 that there is no operator OP k (operation terminal 16) that operates the robot x.

一方、ステップS9でYESであれば、すなわち、オペレータの呼び出しを要求してきたロボットxを操作するオペレータOP(操作端末16)が選択された場合には、ステップS11で、後述するセンサ情報選択処理(図14参照)を実行して、ステップS15に進む。このステップS11では、ロボットxと、オペレータOPが操作する操作端末16との通信速度によって、ロボットxから当該操作端末16に送信するセンサ情報(データの種類)を選択することにより、データ量が調整される。これは、通信時間の遅延を防止するためである。 On the other hand, if “YES” in the step S9, that is, if the operator OP k (the operation terminal 16) that operates the robot x that has requested the operator to call is selected, a sensor information selection process described later is performed in a step S11. (See FIG. 14) is executed, and the process proceeds to step S15. In step S11, the amount of data is reduced by selecting sensor information (data type) to be transmitted from the robot x to the operation terminal 16 according to the communication speed between the robot x and the operation terminal 16 operated by the operator OP k. Adjusted. This is to prevent a delay in communication time.

図8−図11は、図7に示したステップS7のオペレータ選択処理を示すフロー図である。図8に示すように、中央制御装置14のCPUは、オペレータ選択処理開始すると、ステップS31で、変数を初期化する。具体的には、変数kおよび変数jのそれぞれに1が設定され、変数jpn,変数engおよび変数deuのそれぞれに0が設定される。ここで、変数kは選択されたオペレータOPを個別に識別するための変数であり、変数jは選択されたオペレータOPの人数のカウント値(総数)を示す。また、変数jpnはロボットxが対話している人間の音声から日本語らしさ演算をした演算結果を格納し、変数engはロボットxが対話している人間の音声から英語らしさ演算をした演算結果を格納し、そして、変数deuはロボットxが対話している人間の音声からドイツ語らしさ演算をした演算結果を格納する。 FIGS. 8-11 is a flowchart which shows the operator selection process of step S7 shown in FIG. As shown in FIG. 8, when starting the operator selection process, the CPU of the central controller 14 initializes variables in step S31. Specifically, 1 is set for each of variable k and variable j, and 0 is set for each of variable jpn, variable eng, and variable deu. Here, the variable k is a variable for individually identifying the selected operator OP k , and the variable j indicates the count value (total number) of the number of the selected operator OP k . The variable jpn stores the calculation result obtained by calculating the Japanese character from the voice of the person interacting with the robot x, and the variable eng indicates the calculation result of calculating the English character from the voice of the person interacting with the robot x. The variable deu stores the calculation result obtained by calculating the German-likeness from the human voice with which the robot x is interacting.

続いて、ステップS33では、条件リストLおよび残存条件リストLAを初期化する。つまり、条件リストLおよび残存条件リストLAに含まれる条件が全て消去される。条件リストLには、オペレータを検索するための1または複数の条件が記述される。この実施例では、条件リストLは、条件(L+LiL)(iL=1,2,…,LN)と表される。条件Lは、言語についての条件であり、この実施例では、日本語,英語およびドイツ語のいずれかが設定される。また、条件LiLは言語以外の他の条件であり、変数iLによって個別に識別される。 Subsequently, in step S33, the condition list L and the remaining condition list LA are initialized. That is, all the conditions included in the condition list L and the remaining condition list LA are deleted. The condition list L describes one or more conditions for searching for an operator. In this embodiment, the condition list L is expressed as a condition (L 0 + L iL ) (iL = 1, 2,..., LN). Conditions L 0 is a condition of the language, in this example, Japanese, one of the English and German are set. The condition L iL is a condition other than language, and is individually identified by the variable iL.

次のステップS35では、ロボットxに音声入力が有るか否かを判断する。つまり、中央制御装置14のCPUは、対話相手の音声がロボットxで検出され、検出された音声に対応する音声信号がロボットxから送信され、その音声信号を受信したか否かを判断する。ステップS35でNOであれば、つまりロボットxに音声入力が無ければ、ステップS37で、ロボットxに音声の出力を指示して、ステップS35に戻る。ステップS37では、たとえば、「何か御用でしょうか?」などのように、対話相手に発話させるような音声をロボット12から出力させるためのコマンドがロボットxに送信される。このようにして、中央制御装置14のCPUは、対話相手の質問(要求)を聞き出して、条件リストLを作成するのである。   In the next step S35, it is determined whether or not the robot x has a voice input. That is, the CPU of the central control device 14 determines whether or not the voice of the conversation partner is detected by the robot x, a voice signal corresponding to the detected voice is transmitted from the robot x, and the voice signal is received. If “NO” in the step S35, that is, if there is no voice input to the robot x, the robot x is instructed to output a voice in a step S37, and the process returns to the step S35. In step S37, for example, a command for causing the robot 12 to output a voice that causes the conversation partner to speak is sent to the robot x, such as "What is it for?" In this way, the CPU of the central control device 14 listens to questions (requests) of the conversation partner and creates the condition list L.

また、ステップS35でYESであれば、つまり、ロボットxに音声入力があれば、ステップS41で、日本語らしさ演算を行う。ここで、日本語らしさ演算とは、ロボットxの対話相手の言語がどれだけ日本語に近いかの割合を求める演算である。具体的には、中央制御装置14のCPUは、受信した音声信号を、日本語用辞書を用いてDPマッチング法やHMM(隠れマルコフモデル)法により音声認識し、認識結果とそのスコア(近似度ないし正確さを示す割合)とを得る。次のステップS43では、演算結果を変数jpnに格納する。ここでは、上述のようにして演算した結果のうち、スコアを日本語らしさとして変数jpnに格納する。   If “YES” in the step S35, that is, if there is a voice input to the robot x, a Japanese-likeness calculation is performed in a step S41. Here, the Japanese-likeness calculation is an operation for obtaining a ratio of how close the language of the conversation partner of the robot x is to Japanese. Specifically, the CPU of the central control unit 14 recognizes the received voice signal by the DP matching method or the HMM (Hidden Markov Model) method using a Japanese dictionary, and the recognition result and its score (approximation degree). Or a ratio indicating accuracy). In the next step S43, the calculation result is stored in the variable jpn. Here, among the results calculated as described above, the score is stored in the variable jpn as Japanese-likeness.

続くステップS45では、英語らしさ演算を行う。ここでは、中央制御装置14のCPUは、英語用辞書を用いて、ステップS41と同様の方法で音声認識し、認識結果とそのスコアとを得る。そして、ステップS47で、演算結果(スコア)を英語らしさとして変数engに格納する。図9に示すように、次のステップS49では、ドイツ語らしさ演算を行う。ここでは、中央制御装置14のCPUは、ドイツ語用辞書を用いて、ステップS41と同様の方法で音声認識し、認識結果とスコアとを得る。次のステップS51では、演算結果(スコア)をドイツ語らしさとして変数deuに格納する。   In the following step S45, English-likeness calculation is performed. Here, the CPU of the central control device 14 performs speech recognition using the English dictionary in the same manner as in step S41, and obtains a recognition result and its score. In step S47, the calculation result (score) is stored in the variable eng as English-likeness. As shown in FIG. 9, in the next step S49, a German-likeness calculation is performed. Here, the CPU of the central controller 14 performs speech recognition using the German dictionary in the same manner as in step S41, and obtains a recognition result and a score. In the next step S51, the calculation result (score) is stored in the variable deu as German-likeness.

次のステップS53では、変数jpnが変数engよりも大きいか否かを判断する。つまり、ここでは、中央制御装置14のCPUは、ロボットxの対話相手の言語が日本語または英語のどちらに近いのかを判断する。ここでYESであれば、つまり変数jpnが変数engよりも大きければ、ロボットxの対話相手の言語が英語よりも日本語に近いと判断し、ステップS55で、変数jpnが変数deuよりも大きいか否かを判断する。つまり、ここでは、中央制御装置14のCPUは、ロボットxの対話相手の言語が日本語またはドイツ語のどちらに近いのかを判断する。   In the next step S53, it is determined whether or not the variable jpn is larger than the variable eng. That is, here, the CPU of the central controller 14 determines whether the language of the conversation partner of the robot x is close to Japanese or English. If YES here, that is, if variable jpn is larger than variable eng, it is determined that the language of the conversation partner of robot x is closer to Japanese than English, and whether variable jpn is larger than variable deu in step S55. Judge whether or not. That is, here, the CPU of the central controller 14 determines whether the language of the conversation partner of the robot x is close to Japanese or German.

ステップS55でYESであれば、つまり変数jpnが変数deuよりも大きければ、ロボットxの対話相手の言語がドイツ語よりも日本語に近いと判断し、ステップS57で、条件Lを日本語に設定して、ステップS65に進む。一方、ステップS55でNOであれば、つまり変数jpnが変数deu以下であれば、ロボットxの対話相手の言語が日本語よりもドイツ語に近いと判断し、ステップS61で、条件Lをドイツ語に設定して、ステップS65に進む。 If YES in the step S55, that is, if the variable jpn is greater than the variable deu, dialogue partner of the language of the robot x is determined that the closer to the Japanese than German, in step S57, the condition L 0 to Japanese Set and proceed to step S65. On the other hand, if NO in step S55, that is, if variable jpn is equal to or smaller than variable deu, it is determined that the language of the conversation partner of robot x is closer to German than Japanese, and in step S61, condition L 0 is set to German. Set the word and go to step S65.

また、上述したステップS53でNOであれば、つまり変数jpnが変数eng以下であれば、ロボットxの対話相手の言語が日本語よりも英語に近いと判断し、ステップS59で、変数engが変数deuよりも大きいか否かを判断する。ここでは、中央制御装置14のCPUは、ロボットxの対話相手の言語が英語またはドイツ語のどちらに近いのかを判断する。   If NO in step S53 described above, that is, if the variable jpn is equal to or smaller than the variable eng, it is determined that the language of the conversation partner of the robot x is closer to English than Japanese, and the variable eng is a variable in step S59. It is determined whether it is larger than deu. Here, the CPU of the central controller 14 determines whether the language of the conversation partner of the robot x is close to English or German.

ステップS59でYESであれば、つまり変数engが変数deuよりも大きければ、ロボットxの対話相手の言語がドイツ語よりも英語に近いと判断し、ステップS63で、条件Lを英語に設定して、ステップS65に進む。一方、ステップS59でNOであれば、つまり変数engが変数deu以下であれば、ロボットxの対話相手の言語が英語よりもドイツ語に近いと判断し、ステップS61に進む。 If it is YES in step S59, that is greater than the variable eng is variable deu, dialogue partner of the language of the robot x is determined that the closer to the English than German, in step S63, to set the conditions L 0 in English Then, the process proceeds to step S65. On the other hand, if NO in step S59, that is, if the variable eng is equal to or smaller than the variable deu, it is determined that the language of the conversation partner of the robot x is closer to German than English, and the process proceeds to step S61.

続いて、ステップS65で、後述する条件リスト作成処理(図12参照)を実行し、ステップS67で、後述するオペレータ検索処理(図13参照)を実行し、図10に示すステップS69では、ステップS67で検索されたオペレータOP(k=1)が条件リストLの全ての条件を満たしているか否かを判断する。つまり、中央制御装置14のCPUは、検索された1人目のオペレータOPの言語およびスキルが、条件リストLのすべての条件に合致するか、または包含しているかを判断するのである。 Subsequently, in step S65, a condition list creation process (see FIG. 12) described later is executed, an operator search process (see FIG. 13) described later is executed in step S67, and in step S69 shown in FIG. 10, step S67 is executed. It is determined whether or not the operator OP k (k = 1) retrieved in step 1 satisfies all the conditions in the condition list L. That is, the CPU of the central controller 14 determines whether the language and skill of the searched first operator OP k matches or includes all the conditions in the condition list L.

ステップS69でYESであれば、つまり1人目のオペレータOPが条件リストLのすべての条件を満たす場合には、そのまま図11に示すステップS83に進む。一方、ステップS69でNOであれば、つまり、1人目のオペレータOPでは、条件リストLの一部の条件しか満たしていない場合には、ステップS71で、残存条件リストLAを作成する。つまり、オペレータOPが満たしていない残りの条件についてのリスト(残存条件リストLA)を作成(更新)する。ここで、残存条件リストLAは、残存条件(LA+LAiLA)(iLA=1,2,…,LAN)と表すことができる。残存条件LAは、言語についての条件であり、条件Lと一致する。また、残存条件LAiLAは言語以外の他の条件である。ただし、変数LNAは、言語以外の残存条件LAiLAの最大値(最大数)を示す。具体的には、残存条件リストLAは、数1および数2に従って作成(更新)される。
[数1]
残存条件LA=条件L
[数2]
残存条件LAiLA=条件LiL−GetList(オペレータOP
ただし、数2では、オペレータOP(k=0,1,…,j)が満たす条件(スキル)を「GetList(オペレータOP)」関数によってオペレータ端末情報テーブルから読み出し、条件リストLに含まれる条件LiLから削除して、残存条件LAiLAを決定する。たとえば、オペレータOP1が「パソコン売り場」のスキルを持ち、条件リストLに条件として「パソコン売り場」および「iPod」が含まれている場合に、数2に従って残存条件リストLAを作成すると、条件リストLに含まれる条件から、オペレータOP1が持つスキル「パソコン売り場」が削除され、残存条件リストLAに条件として「iPod」が設定される。
If “YES” in the step S69, that is, if the first operator OP k satisfies all the conditions in the condition list L, the process proceeds to a step S83 shown in FIG. On the other hand, if NO in step S69, that is, if the first operator OP k satisfies only a part of the conditions in the condition list L, the remaining condition list LA is created in step S71. That is, a list (remaining condition list LA) for the remaining conditions not satisfied by the operator OP k is created (updated). Here, the remaining condition list LA can be expressed as a remaining condition (LA 0 + LA iLA ) (iLA = 1, 2,..., LAN). The remaining condition LA 0 is a language condition and matches the condition L 0 . The remaining condition LA iLA is a condition other than language. However, the variable LNA indicates the maximum value (maximum number) of the remaining conditions LA iLA other than the language. Specifically, the remaining condition list LA is created (updated) according to Equations 1 and 2.
[Equation 1]
Residual condition LA 0 = condition L 0
[Equation 2]
Residual condition LA iLA = condition L iL -GetList (operator OP k )
However, in Equation 2, the condition (skill) satisfied by the operator OP k (k = 0, 1,..., J) is read from the operator terminal information table by the “GetList (operator OP k )” function and included in the condition list L. The remaining condition LA iLA is determined by deleting from the condition L iL . For example, when the operator OP 1 has the skill of “personal computer department” and the condition list L includes “personal computer department” and “iPod” as conditions, if the remaining condition list LA is created according to Equation 2, the condition list From the conditions included in L, the skill “personal computer department” possessed by the operator OP 1 is deleted, and “iPod” is set as a condition in the remaining condition list LA.

続いて、ステップS73では、変数kおよび変数jをインクリメントする。つまり、検索されたオペレータOPの番目と、選択されたオペレータOPの総数jとが、それぞれ1加算される。次のステップS75では、残存条件リストLAを最も満たすオペレータの検索処理(図13参照)を実行する。さらに、ステップS77では、ステップS75で検索されたオペレータOPが残存条件リストLAのすべての条件を満たしているか否かを判断する。ここで、YESであれば、つまり、ステップS75で検索されたオペレータOPが残存条件リストLAのすべての条件を満たしている場合には、ステップS83に進む。 Subsequently, in step S73, the variable k and the variable j are incremented. That is, the second operator OP k that retrieved, the total number j of the selected operator OP k are respectively 1 added. In the next step S75, a search process (see FIG. 13) for the operator that best satisfies the remaining condition list LA is executed. Further, in step S77, it is determined whether or not the operator OP k searched in step S75 satisfies all the conditions in the remaining condition list LA. If YES here, that is, if the operator OP k searched in step S75 satisfies all the conditions in the remaining condition list LA, the process proceeds to step S83.

ここで、ステップS77でNOであれば、つまり、ステップS75で検索されたオペレータOPが残存条件リストLAの一部を満たす場合には、ステップS79で、条件リストLのすべての条件のうち、80%以上の条件を満たしているか否かを判断する。たとえば、条件リストLに5つの条件が含まれる場合に、そのうちの4つの条件を満たしたか否かを判断する。ステップS79でYESであれば、つまり、条件リストLのすべての条件のうち、80%以上の条件を満たしている場合には、ステップS83に進む。一方、ステップS79でNOであれば、つまり、条件リストLのすべての条件のうち、80%未満の条件しか満たしていない場合には、ステップS81で、検索したオペレータOPの人数が3人以上であるか否かを判断する。つまり、変数kまたは変数(総数)jが3以上であるかどうかを判断する。ここで、ステップ81でNOであれば、オペレータOPが3人未満であれば、そのままステップS71に戻って、残存条件リストLAを更新し、次のオペレータOPを検索する。 Here, if NO in step S77, that is, if the operator OP k searched in step S75 satisfies a part of the remaining condition list LA, in step S79, among all the conditions in the condition list L, It is determined whether or not the condition of 80% or more is satisfied. For example, when the condition list L includes five conditions, it is determined whether or not four of the conditions are satisfied. If “YES” in the step S79, that is, if 80% or more of the conditions in the condition list L are satisfied, the process proceeds to a step S83. On the other hand, if NO in step S79, that is, of all the conditions of the condition list L, if not satisfied only 80% less than condition, in step S81, the number of the operator OP k is three or more retrieved It is determined whether or not. That is, it is determined whether or not the variable k or the variable (total number) j is 3 or more. If “NO” in the step 81, if the operator OP k is less than three, the process returns to the step S71 as it is to update the remaining condition list LA and search for the next operator OP k .

このように、条件リストLのすべての条件のうちの一定の割合を超える数の条件を満たしたり、検索されたオペレータOPの数が一定数を超えたりする場合にも、後述の処理に以降するのは、無限ループになってしまったり、ほとんどの場合にロボット12に「エラー」を送信してしまうような不都合を回避するためである。また、選択されたオペレータOPの人数があまり多くなり過ぎると、オペレータOP間で、ロボット12の遠隔操作の方法や順番等を調整するのが煩わしくなってしまうからである。ただし、「80%」や「3人」は単なる一例であり、これに限定される必要はなく、任意に設定することができる。また、条件リストLを満たす割合やオペレータOPの数は、条件リストLに含まれる条件の数に応じて可変的に設定するようにしてもよい。 As described above, even when the number of conditions exceeding a certain ratio among all the conditions in the condition list L is satisfied, or when the number of retrieved operators OP k exceeds a certain number, the processing described later is performed. This is to avoid inconveniences such as an infinite loop or in most cases an “error” is transmitted to the robot 12. In addition, if the number of selected operators OP k becomes too large, it becomes troublesome to adjust the remote operation method and order of the robot 12 between the operators OP k . However, “80%” and “3 people” are merely examples, and the present invention is not limited to these and can be arbitrarily set. Further, the ratio satisfying the condition list L and the number of operators OP k may be variably set according to the number of conditions included in the condition list L.

図11に示すように、ステップS83では、選択されたオペレータOPが使用する操作端末16を、ロボットxに紹介する。たとえば、中央制御装置14のCPUは、ロボットxに対して、選択されたオペレータOPが使用する操作端末16の接続情報(IPアドレス)を送信する。続いて、ステップS85では、選択されたオペレータOPが使用する操作端末16に、ロボットxの遠隔操作依頼を送信する。たとえば、選択されたオペレータOPが操作する操作端末16に対して、呼出要求を送信したロボットxの接続情報(IPアドレス)を送付する。 As shown in FIG. 11, in step S83, the operation terminal 16 used by the selected operator OP k is introduced to the robot x. For example, the CPU of the central controller 14 transmits connection information (IP address) of the operation terminal 16 used by the selected operator OP k to the robot x. Subsequently, in step S85, the on operation terminal 16 used by the operator OP k selected, it transmits a remote control request for the robot x. For example, the connection information (IP address) of the robot x that transmitted the call request is sent to the operation terminal 16 operated by the selected operator OP k .

なお、図示は省略するが、ステップS85では、オペレータ端末情報テーブルにおいて、選択されたオペレータOPが使用する操作端末16の状態が「BUSY−Rx」に更新される。 Although not shown, in step S85, the in operator terminal information table, the operator OP k is selected states of the operation terminal 16 to be used is updated to "BUSY-Rx".

そして、ステップS87では、変数jが0より大きいか否かを判断する。すなわち、選択されたオペレータOPが2人以上であるか否かを判断する。ステップS87でNOであれば、つまり変数jが0以下であれば、図7に示した全体処理にリターンする。一方、ステップS87でYESであれば、つまり、変数jが1以上であれば、ステップS89で、選択されたオペレータOP間の通信を確立して、全体処理にリターンする。 In step S87, it is determined whether or not the variable j is greater than zero. That is, it is determined whether or not there are two or more selected operators OP k . If “NO” in the step S87, that is, if the variable j is 0 or less, the process returns to the entire process illustrated in FIG. On the other hand, if “YES” in the step S87, that is, if the variable j is 1 or more, the communication between the selected operators OP k is established in a step S89, and the process returns to the entire process.

たとえば、ステップS89では、中央制御装置14のCPUは、選択された2人以上のオペレータに対して、それぞれ、他のオペレータが使用する操作端末16の接続情報(IPアドレス)を通知するとともに、チャットソフトを起動させる(音声チャット処理の実行させる)コマンドが送信される。したがって、選択されたオペレータOPkの各オペレータ端末16は他のオペレータ端末16と通信可能に接続され、たとえば、オペレータOP同士が音声チャットにより、ロボットxの遠隔操作についての情報交換や調整を行うことができる。これにより、ロボットxの遠隔操作を円滑に実行し、ロボットxを通して、このロボットxの対話相手と円滑にコミュニケーションすることができる。 For example, in step S89, the CPU of the central control device 14 notifies the connection information (IP address) of the operation terminal 16 used by other operators to the two or more selected operators, and chats. A command to start the software (execute voice chat processing) is transmitted. Accordingly, each operator terminal 16 of the selected operator OP k is communicably connected to the other operator terminals 16. For example, the operators OP k exchange information and adjust the remote operation of the robot x by voice chat. be able to. As a result, the remote operation of the robot x can be smoothly executed, and the robot x can communicate with the conversation partner of the robot x smoothly.

なお、この実施例では、簡単のため、音声チャットにより、オペレータOP同士が会話するようにしてあるが、テキスト入力によりチャットするようにしてもよい。或いは、音声とテキストとの両方を用いたチャットであってもよい。 In this embodiment, for the sake of simplicity, the operators OP k communicate with each other by voice chat. However, the chat may be performed by text input. Alternatively, it may be a chat using both voice and text.

図12は、図9に示したステップS65の条件リスト作成処理のフロー図である。図12に示すように、中央制御装置14のCPUは、条件リスト作成処理を開始すると、ステップS101で、ロボットxで検出された音声からキーワードリストKLを作成する。簡単に説明すると、ロボットxで検出された対話相手の音声対応する音声信号を音声認識する。ここでは、上述した音声認識の結果に、周知の形態素解析の処理を施し、名詞に相当する単語(キーワード)を抽出する。そして、抽出されたすべてのキーワードがキーワードリストKLに設定される。ここで、抽出されたキーワードは、条件L0(言語)以外の条件LiLとして条件リストLに設定される。たとえば、音声認識の結果が「パソコンはどこですか?あと、iPodも探しています。」である場合には、キーワードとして、「パソコン」および「iPod」が抽出され、たとえば、条件L1として「パソコン」が設定され、条件L2として「iPod」が設定される。 FIG. 12 is a flowchart of the condition list creation process in step S65 shown in FIG. As shown in FIG. 12, when starting the condition list creation process, the CPU of the central controller 14 creates the keyword list KL from the voice detected by the robot x in step S101. Briefly, the voice signal corresponding to the voice of the conversation partner detected by the robot x is recognized. Here, a well-known morphological analysis process is performed on the result of speech recognition described above, and a word (keyword) corresponding to a noun is extracted. All extracted keywords are set in the keyword list KL. Here, the extracted keyword is set to the condition list L as a condition L iL non condition L 0 (language). For example, "Where is the computer? Later, also looking for iPod." Result of voice recognition in the case of, as a keyword, "PC" and "iPod" is extracted, for example, "PC as a condition L 1 "is set," iPod "is set as a condition L 2.

続いて、ステップS103では、変数KLNにキーワードリストKLのキーワード数を設定する。ここで設定されるキーワード数は、抽出したキーワードの総数である。次のステップS105では、変数を初期化する。つまり、上述した、条件リストLに含まれる条件の数をカウントする変数LNに1が設定され、抽出したキーワードを順番に指定するための変数iLBに0が設定される。   In step S103, the number of keywords in the keyword list KL is set in the variable KLN. The number of keywords set here is the total number of extracted keywords. In the next step S105, variables are initialized. That is, 1 is set in the variable LN for counting the number of conditions included in the condition list L, and 0 is set in the variable iLB for sequentially specifying the extracted keywords.

続いて、ステップS107では、変数KLNが0より大きいか否かを判断する。つまり、対話相手の音声からキーワードが抽出されたか否かを判断する。ステップS107でNOであれば、つまり、変数KLNが0であれば、対話相手の音声からキーワードが抽出されていないと判断して、そのまま図8−図11に示したオペレータ選択処理にリターンする。一方、ステップS107でYESであれば、つまり、変数KLNが1以上であれば、対話相手の音声からキーワードが抽出されたと判断して、ステップS109へ進む。   Subsequently, in step S107, it is determined whether or not the variable KLN is greater than zero. That is, it is determined whether or not a keyword has been extracted from the voice of the conversation partner. If “NO” in the step S107, that is, if the variable KLN is 0, it is determined that no keyword is extracted from the voice of the conversation partner, and the process directly returns to the operator selection process shown in FIGS. On the other hand, if “YES” in the step S107, that is, if the variable KLN is 1 or more, it is determined that the keyword is extracted from the voice of the conversation partner, and the process proceeds to the step S109.

ステップS109では、条件LLNにキーワードKLiLBを設定する。たとえば、キーワードKLに「パソコン」が設定されている場合には、条件Lとして「パソコン」が設定される。続いて、ステップS111で、変数iLBと変数LNとのそれぞれをインクリメントする。次のステップS113では、変数iLBと変数KLNとが等しいかどうかを判断する。つまり、キーワードリストKLに含まれるキーワードをすべて条件リストLに設定したか否かを判断する。ステップS113でYESであれば、つまり、変数iLBと変数KLNとが等しければ、そのままオペレータ選択処理にリターンする。一方、ステップS113でNOであれば、つまり変数iLBと変数KLNとが等しくなければ、ステップS109に戻る。 In step S109, the keyword KL iLB is set in the condition L LN . For example, when “PC” is set as the keyword KL 0 , “PC” is set as the condition L 1 . Subsequently, in step S111, each of the variable iLB and the variable LN is incremented. In the next step S113, it is determined whether or not the variable iLB and the variable KLN are equal. That is, it is determined whether or not all the keywords included in the keyword list KL are set in the condition list L. If “YES” in the step S113, that is, if the variable iLB and the variable KLN are equal, the process directly returns to the operator selection process. On the other hand, if “NO” in the step S113, that is, if the variable iLB and the variable KLN are not equal, the process returns to the step S109.

図13は、図9に示したステップS67および図10に示したステップS75のオペレータの検索処理を示すフロー図である。図13に示すように、中央制御装置14のCPUは、オペレータの検索処理を開始すると、ステップS201で、残存条件リストLAが初期化されているか否かを判断する。つまり、中央制御装置14のCPUは、条件リストLを満たすオペレータを検索しているのか、残存条件リストLAを満たすオペレータを検索しているのかを判断する。よって、ステップS201でYESであれば、つまり残存条件リストLAが初期化されていれば、条件リストLを用いてオペレータを検索すると判断して、ステップS203で、検索条件リストLBとして条件リストLを設定する。しかし、ステップS201でNOであれば、つまり残存条件リストLAが初期化されていなければ、残存条件リストLAを用いてオペレータを検索すると判断して、ステップS205で、検索条件リストLBとして残存条件リストLAを設定する。ここで、「検索条件LBiLC」は、検索条件リストLBに含まれる条件の1つを指し、「iLC」は、検索条件リストLBの集合に含まれる各条件を個別に指定するための変数である。また、検索条件リストLBには、条件リストLまたは残存条件リストLAが設定されるため、検索条件リストLBに含まれる条件の総数は、それぞれのリストに含まれる条件の総数に対応する変数LNまたは変数LANとなる。 FIG. 13 is a flowchart showing the operator search processing in step S67 shown in FIG. 9 and step S75 shown in FIG. As shown in FIG. 13, when the CPU of the central control device 14 starts the operator search process, in step S201, the CPU determines whether or not the remaining condition list LA has been initialized. That is, the CPU of the central control device 14 determines whether an operator that satisfies the condition list L is searched for or an operator that satisfies the remaining condition list LA is searched. Therefore, if YES in step S201, that is, if the remaining condition list LA is initialized, it is determined that the operator is to be searched using the condition list L, and the condition list L is set as the search condition list LB in step S203. Set. However, if NO in step S201, that is, if the remaining condition list LA is not initialized, it is determined that the operator is searched using the remaining condition list LA, and the remaining condition list is set as the search condition list LB in step S205. Set LA. Here, “search condition LB iLC ” indicates one of the conditions included in the search condition list LB, and “iLC” is a variable for individually specifying each condition included in the set of search condition lists LB. is there. In addition, since the condition list L or the remaining condition list LA is set in the search condition list LB, the total number of conditions included in the search condition list LB is the variable LN corresponding to the total number of conditions included in each list or Variable LAN.

続いてステップS207では、変数を初期化する。具体的には、変数iLC,変数kaおよび変数idに1を設定する。ここで、変数iLCは、検索条件リストLBに含まれる条件を個別に指定するための変数である。また、変数kaは、スキルリストに含まれるスキルを個別に指定するための変数である。変数idは、オペレータ(操作端末16)を個別に指定するための変数である。   In step S207, variables are initialized. Specifically, 1 is set to the variable iLC, the variable ka, and the variable id. Here, the variable iLC is a variable for individually specifying the conditions included in the search condition list LB. The variable ka is a variable for individually specifying skills included in the skill list. The variable id is a variable for individually specifying an operator (operation terminal 16).

次のステップS209では、配列match[1〜id_max]を初期化する。すなわち、中央制御装置14のCPUは、配列match[1]〜match[id_max]に0を設定する。ここで、配列match[1〜id_max]の配列番号は、図5に示したオペレータ端末情報テーブルのオペレータ(操作端末16)のIDに対応している。このオペレータのIDで指定された配列match[1〜id_max]には、当該オペレータが持つスキルと条件リストLに含まれる条件とが一致した数(一致数)が設定(記憶)される。   In the next step S209, the array match [1-id_max] is initialized. That is, the CPU of the central control device 14 sets 0 in the array match [1] to match [id_max]. Here, the array element number of the array match [1 to id_max] corresponds to the ID of the operator (operation terminal 16) in the operator terminal information table shown in FIG. In the array match [1 to id_max] designated by the operator ID, the number (match number) of the skill that the operator has and the condition included in the condition list L are set (stored).

続くステップS211では、変数idがid_maxより大きいか否かを判断する。つまり、変数idがオペレータ端末情報テーブルに登録されるオペレータの総数を超えたか否かを判断する。ステップS211でNOであれば、つまり変数idがid_max以下であれば、ステップS213で、id_state(id)が「IDLE」であるか否かを判断する。ここで、関数id_state(id)は、変数idで指定したIDに対応して記載された状態を返す関数である。つまり、中央制御装置14のCPUは、オペレータ端末情報テーブルを参照して、変数idで指定するIDのオペレータ(操作端末16)が「待機中の状態」であるか否かを判断するのである。   In a succeeding step S211, it is determined whether or not the variable id is larger than id_max. That is, it is determined whether or not the variable id exceeds the total number of operators registered in the operator terminal information table. If “NO” in the step S211, that is, if the variable id is equal to or less than id_max, it is determined whether or not the id_state (id) is “IDLE” in a step S213. Here, the function id_state (id) is a function that returns a state described corresponding to the ID specified by the variable id. That is, the CPU of the central control device 14 refers to the operator terminal information table and determines whether or not the operator (operation terminal 16) having the ID specified by the variable id is in a “standby state”.

ステップS213でNOであれば、つまり、id_state(id)が「IDLE」でなければ、ステップS227で、変数idをインクリメントし、変数kaを初期化して、ステップS211に戻る。一方、ステップS213でYESであれば、つまりid_state(id)が「IDLE」であれば、ステップS215で、変数kaがid_sn(id)より大きいか否かを判断する。   If NO in step S213, that is, if id_state (id) is not "IDLE", the variable id is incremented in step S227, the variable ka is initialized, and the process returns to step S211. On the other hand, if “YES” in the step S213, that is, if id_state (id) is “IDLE”, it is determined whether or not the variable ka is larger than id_sn (id) in a step S215.

ここで、関数id_sn(id)は、変数idで指定するIDのオペレータが持つスキル数を返す関数である。したがって、ステップS215では、変数idで指定するIDのオペレータが持つすべてのスキルと、条件リストLに含まれるすべての条件との一致数/不一致を調べたか否かを判断するのである。ステップS215でYESであれば、つまり、変数kaがid_sn(id)より大きければ、そのままステップS227に進む。一方、ステップS215でNOであれば、つまり、変数kaがid_sn(id)以下であれば、ステップS217で、変数iLCが変数LBNより大きいか否かを判断する。つまり、検索条件LBiLCが、検索条件リストLBの総数(LBN)よりも大きいか否かを判断する。ステップS217でYESであれば、つまり変数iLCが変数LBNより大きければ、ステップS225で、変数kaをインクリメントし、変数iLCを初期化して、ステップS215に進む。一方、ステップS217でNOであれば、つまり変数iLCが変数LBN以下であれば、ステップS219で、検索条件LBiLCがid_sk(id,ka)と一致するか否かを判断する。 Here, the function id_sn (id) is a function that returns the number of skills possessed by the operator of the ID specified by the variable id. Therefore, in step S215, it is determined whether or not the number of matches / mismatch between all the skills of the operator with the ID specified by the variable id and all the conditions included in the condition list L has been examined. If “YES” in the step S215, that is, if the variable ka is larger than id_sn (id), the process proceeds to a step S227 as it is. On the other hand, if “NO” in the step S215, that is, if the variable ka is equal to or less than id_sn (id), it is determined whether or not the variable iLC is larger than the variable LBN in a step S217. That is, it is determined whether or not the search condition LB iLC is larger than the total number (LBN) of the search condition list LB. If “YES” in the step S217, that is, if the variable iLC is larger than the variable LBN, the variable ka is incremented in a step S225, the variable iLC is initialized, and the process proceeds to the step S215. On the other hand, if “NO” in the step S217, that is, if the variable iLC is equal to or less than the variable LBN, it is determined whether or not the search condition LB iLC matches id_sk (id, ka) in a step S219.

ここで、関数id_sk(id,ka)は、変数idで指定するIDのオペレータが持つスキルkaを返す関数である。たとえば、図5に示したオペレータ情報端末テーブルを参照して分かるように、関数id_sk(2,1)は「iPod」を返す。ステップS219でYESであれば、つまり、検索条件LBiLCがid_sk(id,ka)と一致すれば、ステップS221で、配列match[id]をインクリメントして、ステップS223に進む。つまり、ステップS221では、変数idが示すIDのオペレータについて、当該オペレータのスキルと、条件リストLまたは残存条件リストLAの条件との一致数がカウントされるのである。一方、ステップS219でNOであれば、つまり検索条件LBiLCがid_sk(id,ka)と一致しなければ、そのままステップS223に進む。ステップS223では、変数iLCをインクリメントする。したがって、次の検索条件LBiLCと関数id_sk(id,ka)が返すスキルとが一致するか否かの判断処理が実行される。 Here, the function id_sk (id, ka) is a function that returns the skill ka possessed by the operator of the ID specified by the variable id. For example, as can be seen with reference to the operator information terminal table shown in FIG. 5, the function id_sk (2, 1) returns “iPod”. If YES in step S219, that is, if the search condition LB iLC matches id_sk (id, ka), the array match [id] is incremented in step S221, and the process proceeds to step S223. That is, in step S221, for the operator with the ID indicated by the variable id, the number of matches between the skill of the operator and the condition in the condition list L or the remaining condition list LA is counted. On the other hand, if “NO” in the step S219, that is, if the search condition LB iLC does not match the id_sk (id, ka), the process proceeds to a step S223 as it is. In step S223, the variable iLC is incremented. Accordingly, a process for determining whether or not the next search condition LB iLC matches the skill returned by the function id_sk (id, ka) is executed.

また、ステップS211でYESであれば、つまりidがid_maxより大きければ、ステップS229で、配列match[1〜id_max]の中で、最大値かつ使用者条件を満たすIDのオペレータをオペレータOPに設定して、オペレータの選択処理にリターンする。 Also, if YES in step S211, that is, if id is greater than Id_max, set in step S229, in the sequence match [1~id_max], the operator of the maximum value and the user satisfies ID to the operator OP k Then, the process returns to the operator selection process.

ここで、使用者条件は、上述したとおり、オペレータを検索するときに、ロボット遠隔操作システム10の使用者によって、任意に決めることができる条件である。たとえば、使用者条件が「経験歴が豊富なオペレータを優先して呼び出したい」である場合に、配列match[0〜id_max]のそれぞれに含まれる値の中で最も大きい値が設定される配列が2つ以上有る場合に、それぞれの配列数に対応したIDを持つオペレータが持つステータス値の「経験」に含まれる値が一番大きいオペレータが、オペレータOP検索処理によって検索されたオペレータとなる。たとえば、配列match[2]および配列match[id_max]が示す一致数が最大である場合には、図5に示したオペレータ端末情報テーブルを参照して分かるように、IDが「2」であるオペレータの経験(2月)と、IDが「id_max」であるオペレータの経験(12月)とから、上記使用者条件を満たすのは、IDが「id_max」であるオペレータである。このオペレータ(宮崎)がオペレータOPとして設定されるのである。 Here, as described above, the user condition is a condition that can be arbitrarily determined by the user of the robot remote control system 10 when searching for an operator. For example, when the user condition is “want to call an operator with abundant experience”, an array in which the largest value among the values included in each of the arrays match [0 to id_max] is set. When there are two or more operators, the operator having the largest value included in the “experience” status value of the operator having an ID corresponding to the number of arrays is the operator searched by the operator OP search process. For example, when the number of matches indicated by the array match [2] and the array match [id_max] is the maximum, the operator whose ID is “2” is understood with reference to the operator terminal information table shown in FIG. From the experience (February) and the experience (December) of the operator whose ID is “id_max”, the operator whose ID is “id_max” satisfies the user condition. This operator (Miyazaki) is set as the operator OP k .

また、他の実施例では、使用者条件が「多くのキーワードに対応可能なオペレータを出きるだけ温存したい」である場合には、一致数が最大である複数のオペレータの中で、スキル数が最も少ないオペレータがオペレータOPとして設定される。 In another embodiment, when the user condition is “I want to preserve as many operators as possible corresponding to many keywords”, the number of skills among the plurality of operators having the maximum number of matches is The fewest operators are set as operator OP k .

さらに、その他の実施例では、使用者条件が「複数の言語を話すことができるオペレータを出きるだけ温存したい」である場合には、一致数が最大である複数のオペレータの中で、言語数が最も少ないオペレータがオペレータOPとして設定される。 Furthermore, in another embodiment, when the user condition is “I want to preserve as many operators as possible who can speak multiple languages”, the number of languages among the multiple operators with the largest number of matches. The operator having the smallest number is set as the operator OP k .

図14は、図7に示したステップS11のセンサ情報選択処理のフロー図である。図14を参照して、ステップS301では、変数kを初期化する(k=1)。続いて、ステップS303では、変数kが変数j以下であるか否かを判断する。すなわち、k番目のオペレータOPが、オペレータOPの総数j以上であるか否かを判断する。ステップS303でNOであれば、つまり、変数kが変数jよりも大きければ、ステップS311に進む。一方、ステップS303でYESであれば、つまり、変数kが変数j以下であれば、ステップS305で、ロボットxとオペレータOPが操作する操作端末16との通信速度Sが閾値Sa以上か否かを判断する。つまり、閾値Saよりも通信速度Sが大きければ、オペレータOPが操作する操作端末16に音声情報が送信される。 FIG. 14 is a flowchart of the sensor information selection process in step S11 shown in FIG. Referring to FIG. 14, in step S301, variable k is initialized (k = 1). Subsequently, in step S303, it is determined whether or not the variable k is equal to or less than the variable j. That, k-th operator OP k determines whether at least the total number j of the operator OP k. If “NO” in the step S303, that is, if the variable k is larger than the variable j, the process proceeds to a step S311. On the other hand, if “YES” in the step S303, that is, if the variable k is equal to or less than the variable j, whether or not the communication speed S between the robot x and the operation terminal 16 operated by the operator OP k is equal to or higher than the threshold value Sa in a step S305. Judging. That is, if the communication speed S is larger than the threshold value Sa, the audio information is transmitted to the operation terminal 16 operated by the operator OP k .

ステップS305でNOであれば、つまりロボットxと操作端末16との通信速度が閾値Sa未満であれば、そのままステップS309に進む。一方、ステップS305でYESであれば、ステップS307で、音声情報をオペレータOPに送信させて、ステップS309に進む。このステップS307では、中央制御装置14のCPUは、ロボットxの対話相手の音声に対応する音声信号を音声情報として、オペレータOPが操作する操作端末16に送信させるべく、そのためのコマンドをロボットxに送信する。オペレータOPは、その音声信号の音声を聞くことにより、対話相手の発話内容を容易に知ることができ、したがって、対話相手と会話をすることができる。このため、適切に対応することができる。ステップS309では、変数kをインクリメントして、ステップS303に戻る。 If “NO” in the step S305, that is, if the communication speed between the robot x and the operation terminal 16 is less than the threshold value Sa, the process proceeds to a step S309 as it is. On the other hand, if “YES” in the step S305, the voice information is transmitted to the operator OP k in a step S307, and the process proceeds to the step S309. In this step S307, the CPU of the central control device 14 sends a command for that purpose to the robot x in order to transmit the voice signal corresponding to the voice of the conversation partner of the robot x as voice information to the operation terminal 16 operated by the operator OP k. Send to. The operator OP k can easily know the utterance content of the conversation partner by listening to the voice of the voice signal, and thus can talk with the conversation partner. For this reason, it can respond appropriately. In step S309, the variable k is incremented, and the process returns to step S303.

ステップS311では、変数kを初期化する。続いて、ステップS313では、変数kが変数j以下であるか否かを判断する。ステップS313でYESであれば、ステップS315で、ロボットxとオペレータOPが操作する操作端末16との通信速度Sが閾値Sv以上か否かを判断する。たとえば、閾値Svよりも通信速度Sが大きければ、オペレータOPが操作する操作端末16にカメラ情報が送信される。 In step S311, the variable k is initialized. Subsequently, in step S313, it is determined whether or not the variable k is equal to or less than the variable j. If “YES” in the step S313, it is determined whether or not the communication speed S between the robot x and the operation terminal 16 operated by the operator OP k is equal to or higher than the threshold value Sv in a step S315. For example, if the communication speed S is higher than the threshold value Sv, the camera information is transmitted to the operation terminal 16 operated by the operator OP k .

ステップS315でNOであれば、つまりロボットxと操作端末16との通信速度が閾値Sv未満であれば、そのままステップS319で、変数kをインクリメントして、ステップS313に戻る。一方、ステップS315でYESであれば、つまりロボットxと操作端末16との通信速度が閾値Sv以上であれば、ステップS317で、カメラ情報をオペレータOPに送信させて、ステップS319に進む。このステップS317では、中央制御装置14のCPUは、ロボットxの全方位カメラ34や眼カメラ58で撮影された映像に対応する映像信号を映像情報として、オペレータOPが操作する操作端末16に送信させるべく、そのためのコマンドをロボットxに送信する。オペレータOPは、その映像を見ることにより、ロボットxの周囲の状況や対話相手の顔の表情、身振り手振りなどを知ることができる。したがって、たとえば、相手の表情を見て対応することができるので、より適切に対応することができる。 If “NO” in the step S315, that is, if the communication speed between the robot x and the operation terminal 16 is less than the threshold value Sv, the variable k is incremented in a step S319, and the process returns to the step S313. On the other hand, if “YES” in the step S315, that is, if the communication speed between the robot x and the operation terminal 16 is equal to or higher than the threshold value Sv, the camera information is transmitted to the operator OP k in a step S317, and the process proceeds to the step S319. In this step S317, the CPU of the central control device 14 transmits, as video information, a video signal corresponding to the video taken by the omnidirectional camera 34 or the eye camera 58 of the robot x to the operation terminal 16 operated by the operator OP k. In order to do so, a command for that purpose is transmitted to the robot x. The operator OP k can know the situation around the robot x, the facial expression of the conversation partner, gesture gestures, and the like by viewing the video. Therefore, for example, it is possible to respond by looking at the facial expression of the other party, so it is possible to respond more appropriately.

ステップS321では、変数kを初期化する。続いてステップS323では、変数kが変数j以下であるか否かを判断する。ステップS323でNOであれば、図7に示した全体処理にリターンする。一方、ステップS323でYESであれば、ステップS325で、ロボットxとオペレータOPが操作する操作端末16との通信速度Sが閾値Ss以上か否かを判断する。たとえば、閾値Ssよりも通信速度Sが大きければ、オペレータOPが操作する操作端末16に距離情報が送信される。 In step S321, the variable k is initialized. In step S323, it is determined whether the variable k is equal to or less than the variable j. If “NO” in the step S323, the process returns to the entire process illustrated in FIG. On the other hand, if “YES” in the step S323, it is determined whether or not the communication speed S between the robot x and the operation terminal 16 operated by the operator OP k is equal to or higher than the threshold value Ss in a step S325. For example, if the communication speed S is larger than the threshold value Ss, the distance information is transmitted to the operation terminal 16 operated by the operator OP k .

ステップS325でNOであれば、つまりロボットxと操作端末16との通信速度Sが閾値Ss未満であれば、そのままステップS329へ進み、変数kをインクリメントして、ステップS323に戻る。一方、ステップS325でYESであれば、つまりロボットxと操作端末16との通信速度Sが閾値Ss以上であれば、ステップS327で、距離情報をオペレータOPに送信させて、ステップS329に進む。このステップS327では、中央制御装置14のCPUは、ロボットxの赤外線距離センサ28で検出されたロボットxと対話相手との距離についての距離データおよび接触センサ46で検出された対話相手とロボット12との接触状態などを、距離情報としてオペレータOPが操作する操作端末16に送信させるべく、そのためのコマンドをロボットxに送信する。この距離情報を見ることにより、オペレータOPは、対話相手とロボット12との状態(対話相手までの距離)を認識することができる。これにより、たとえば、ロボットxを通してスキンシップを図ることが可能である。 If “NO” in the step S325, that is, if the communication speed S between the robot x and the operation terminal 16 is less than the threshold Ss, the process proceeds to a step S329 as it is, the variable k is incremented, and the process returns to the step S323. On the other hand, if “YES” in the step S325, that is, if the communication speed S between the robot x and the operation terminal 16 is equal to or higher than the threshold value Ss, the distance information is transmitted to the operator OP k in a step S327, and the process proceeds to the step S329. In this step S327, the CPU of the central controller 14 determines the distance data on the distance between the robot x and the conversation partner detected by the infrared distance sensor 28 of the robot x and the conversation partner and the robot 12 detected by the contact sensor 46. Is transmitted to the operation terminal 16 operated by the operator OP k as distance information, a command for that is transmitted to the robot x. By viewing this distance information, the operator OP k can recognize the state (distance to the conversation partner) between the conversation partner and the robot 12. Thereby, for example, skinship can be achieved through the robot x.

なお、閾値Sa,閾値Svおよび閾値Ssの値は、使用者によって任意に変更可能である。たとえば、アナログ電話の通信速度が約54kbpsであるため、閾値Saを54kbpsに設定するようにしてもよい。または、閾値Saを0に設定することで、ロボット12が常に音声情報をオペレータOPが使用する操作端末16に送信するようにしてもよい。 Note that the values of the threshold value Sa, the threshold value Sv, and the threshold value Ss can be arbitrarily changed by the user. For example, since the communication speed of the analog telephone is about 54 kbps, the threshold value Sa may be set to 54 kbps. Alternatively, by setting the threshold value Sa to 0, the robot 12 may always transmit voice information to the operation terminal 16 used by the operator OP k .

ただし、ロボット12と操作端末16との通信速度Sは、中央制御装置14に記憶される呼出要求を送信したロボット12と操作端末16とのそれぞれの通信回線の最大通信速度(ベストエフォート)に基づいて決められる。また、通信速度Sは、中央制御装置14から基準データをロボット12および操作端末16のそれぞれに送信することで、当該基準データの送信にかかった時間から決められてもよい。   However, the communication speed S between the robot 12 and the operation terminal 16 is based on the maximum communication speed (best effort) of each communication line between the robot 12 and the operation terminal 16 that has transmitted the call request stored in the central controller 14. Can be decided. Further, the communication speed S may be determined from the time taken to transmit the reference data by transmitting the reference data from the central controller 14 to each of the robot 12 and the operation terminal 16.

また、この実施例では、通信速度Sが或る閾値を超えるか否かで、ロボット12から操作端末16に送信する情報を決定するようにしてあるが、通信環境等を考慮しない場合には、音声情報,カメラ情報および距離情報のいずれか1つまたは2つ以上を必ず送信するようにしてもよい。   In this embodiment, information to be transmitted from the robot 12 to the operation terminal 16 is determined depending on whether or not the communication speed S exceeds a certain threshold. However, when the communication environment is not considered, Any one or two or more of audio information, camera information, and distance information may be transmitted.

さらに、この実施例では、通信速度Sに応じて、送信する情報を決定するようにしてあるが、ロボット12が設置される環境に応じて送信する情報を決定するようにしてもよい。   Furthermore, in this embodiment, the information to be transmitted is determined according to the communication speed S, but the information to be transmitted may be determined according to the environment where the robot 12 is installed.

ここで、カメラ情報およびセンサ情報が制限された場合に、操作端末16の表示装置に表示される遠隔操作画面210の表示例を図15に示す。図15から分かるように、操作パネル216の表示内容は、図6に示した遠隔操作画面210と同じである。ロボットカメラ画像212の表示部は、カメラ情報が制限されているため、「カメラ情報制限中」の文字列(テキスト)が表示される。ロボット情報214の表示部には、図6に示した遠隔操作画面210と同様に、ロボットが設置される位置,当該ロボットの名前,設置された場所の地図および対話している人間の情報が表示される。ただし、ロボット情報214の下部に示されるように、音声情報は、図6に示した遠隔操作画面210と同様に、「通信中」と表示されるが、距離情報は、「制限中」のテキストが表示される。   Here, FIG. 15 shows a display example of the remote operation screen 210 displayed on the display device of the operation terminal 16 when the camera information and the sensor information are restricted. As can be seen from FIG. 15, the display content of the operation panel 216 is the same as that of the remote operation screen 210 shown in FIG. Since the display unit of the robot camera image 212 is limited in camera information, a character string (text) “camera information is being restricted” is displayed. Similar to the remote operation screen 210 shown in FIG. 6, the display unit of the robot information 214 displays the position where the robot is installed, the name of the robot, the map of the installed location, and the information of the person who is interacting with the robot. Is done. However, as shown in the lower part of the robot information 214, the voice information is displayed as “communication” as in the remote operation screen 210 shown in FIG. 6, but the distance information is the text “restricted”. Is displayed.

図16は、ロボット12(ロボットx)のCPU60の全体処理を示すフロー図である。図16に示すように、ロボット12(ロボットx)のCPU60は、全体処理を開始すると、ステップS401で、後述するオペレータ呼出条件判定処理(図17参照)を実行し、ステップS403で、オペレータ呼出フラグがオンであるか否かを判断する。図示は省略するが、オペレータの呼出フラグは、1ビットのレジスタで構成され、メモリ64(RAM)に設けられる。この呼出フラグは、オペレータ呼出条件判定処理を実行することにより、オン/オフされる。具体的には、オペレータ呼出条件を満たす場合には、呼出フラグはオンされ、逆に、オペレータ呼出条件を満たさない場合には、呼出フラグはオフされる。呼出フラグがオンされると、レジスタにデータ値「1」が設定され、逆に、呼出フラグがオフされると、レジスタにデータ値「0」が設定される。   FIG. 16 is a flowchart showing the overall processing of the CPU 60 of the robot 12 (robot x). As shown in FIG. 16, when starting the entire process, the CPU 60 of the robot 12 (robot x) executes an operator call condition determination process (see FIG. 17) described later in step S401, and in step S403, calls an operator call flag. It is determined whether or not is on. Although not shown in the figure, the operator call flag is composed of a 1-bit register and is provided in the memory 64 (RAM). This call flag is turned on / off by executing an operator call condition determination process. Specifically, if the operator call condition is satisfied, the call flag is turned on. Conversely, if the operator call condition is not satisfied, the call flag is turned off. When the call flag is turned on, the data value “1” is set in the register. Conversely, when the call flag is turned off, the data value “0” is set in the register.

ステップS403でNOであれば、つまり呼出フラグがオフであれば、ステップS409で、自立行動処理を実行する。なお、自律行動処理では、自立制御によって必要に応じて人間との間でコミュニケーション行動を実行する。たとえば、人間と対面した場合には、当該人間に挨拶をしたり、また、人間に道を尋ねられた場合には、道案内を行ったりする。一方、ステップS403でYESであれば、つまり、呼出フラグがオンであれば、ステップS405で、後述する遠隔操作対応処理(図18参照)を実行する。   If “NO” in the step S403, that is, if the calling flag is turned off, an independent action process is executed in a step S409. In the autonomous behavior process, communication behavior is executed with human beings as needed by independent control. For example, when a person is faced, a greeting is given to the person, and when a person is asked about the way, directions are given. On the other hand, if “YES” in the step S403, that is, if the calling flag is turned on, a remote operation handling process (see FIG. 18) described later is executed in a step S405.

続いてステップS407では、停止命令があるかどうかを判断する。たとえば、停止命令(停止コマンド)は、オペレータの操作に従って、操作端末16からネットワーク100を介してロボット12に送信される。ただし、ロボット12やロボット12が配置される環境に停止ボタンを設けておき、当該ボタンを操作することにより、ロボット12に停止コマンドを入力するようにしてもよい。ステップS407でYESであれば、つまり停止命令が有れば、そのまま全体処理を終了する。一方、ステップS407でNOであれば、つまり停止命令が無ければ、ステップS401に戻る。   In step S407, it is determined whether there is a stop command. For example, a stop command (stop command) is transmitted from the operation terminal 16 to the robot 12 via the network 100 according to the operation of the operator. However, a stop button may be provided in the environment where the robot 12 or the robot 12 is arranged, and a stop command may be input to the robot 12 by operating the button. If “YES” in the step S407, that is, if there is a stop command, the entire processing is ended as it is. On the other hand, if NO in step S407, that is, if there is no stop command, the process returns to step S401.

図17は、図16に示したステップS401のオペレータ呼出条件判定処理のフロー図である。図17に示すように、ロボット12のCPU60は、オペレータ呼出条件判定処理を開始すると、ステップS501で、呼出条件フラグをオフし、ステップS503で、周囲情報を検出する。つまり、オペレータ呼出条件の判断に必要なセンサ(赤外線距離センサ28,全方位カメラ34,マイク54,眼カメラ58,接触センサ46および無線タグ読み取り装置86)の出力を検出し、周囲および自身の状況(状態)を認識する。   FIG. 17 is a flowchart of the operator call condition determination process in step S401 shown in FIG. As shown in FIG. 17, when starting the operator calling condition determination process, the CPU 60 of the robot 12 turns off the calling condition flag in step S501, and detects surrounding information in step S503. In other words, the outputs of sensors (infrared distance sensor 28, omnidirectional camera 34, microphone 54, eye camera 58, contact sensor 46, and wireless tag reader 86) necessary for determining the operator calling condition are detected, and the surroundings and their own conditions Recognize (state).

続いてステップS505では、特定の文章や単語を検出したか否かを判断する。ステップS505でYESであれば、つまり、特定の文章や単語を検出すれば、オペレータ呼出条件を満たすと判断して、ステップS519で呼出条件フラグをオンして、図16に示したロボット12の全体処理にリターンする。たとえば、特定の文章や単語としては、ロボット12が相手(対話相手)の意図を理解できないことを意味する文章や単語、たとえば、「違う」,「責任者を呼んで」,「そうじゃないんだけど」および「わからないかなあ」などが考えられる。   In step S505, it is determined whether a specific sentence or word has been detected. If YES in step S505, that is, if a specific sentence or word is detected, it is determined that the operator calling condition is satisfied, the calling condition flag is turned on in step S519, and the entire robot 12 shown in FIG. Return to processing. For example, as a specific sentence or word, a sentence or word that means that the robot 12 cannot understand the intention of the other party (the conversation partner), for example, “No”, “Call the person in charge”, “That ’s not right But "and" I don't know "can be considered.

一方、ステップS505でNOであれば、つまり特定の文章や単語を検出していなければ、ステップS507で、特定の顔の表情を取得したか否かを判断する。たとえば、特定の表情とは、人の顔表情認識で怒りが検出されたこと、顔特定機能で特定の人を検出したことが考えられる。ステップS507でYESであれば、つまり、特定の顔の表情を取得すれば、オペレータ呼出条件を満たすと判断して、ステップS519に進む。   On the other hand, if “NO” in the step S505, that is, if a specific sentence or word is not detected, it is determined whether or not a specific facial expression is acquired in a step S507. For example, the specific facial expression may be that anger has been detected by recognizing a human facial expression, or that a specific person has been detected by the face specifying function. If “YES” in the step S507, that is, if a specific facial expression is acquired, it is determined that the operator calling condition is satisfied, and the process proceeds to a step S519.

また、ステップS507でNOであれば、つまり、特定の顔の表情を取得していなければ、ステップS509で特定の人間を検出したか否かを判断する。たとえば、特定の人物を検出する方法としては、特定のIDの無線タグを検出したこと(たとえば、VIPとして登録された人が現れたこと)などが考えられる。ステップS509でYESであれば、つまり特定の人間を検出すれば、オペレータ呼出条件を満たすと判断して、ステップS519へ進む。一方、ステップS509でNOであれば、つまり、特定の人間を検出していなければ、ステップS511で、人間と長時間会話している状況であるか否かを判断する。たとえば、赤外線距離センサ28で取得された距離が1m以内である状態が5分以上になればYESと判断されるようにしてもよい。   If “NO” in the step S507, that is, if a specific facial expression is not acquired, it is determined whether or not a specific human is detected in a step S509. For example, as a method for detecting a specific person, a wireless tag having a specific ID may be detected (for example, a person registered as a VIP appears). If “YES” in the step S509, that is, if a specific person is detected, it is determined that the operator calling condition is satisfied, and the process proceeds to a step S519. On the other hand, if NO in step S509, that is, if a specific person has not been detected, it is determined in step S511 whether or not a long-time conversation with the person is present. For example, it may be determined as YES when the distance acquired by the infrared distance sensor 28 is within 1 m for 5 minutes or longer.

ステップS511でYESであれば、つまり、人間と長時間会話している状況であれば、オペレータ呼出条件を満たすと判断して、ステップS519に進む。一方、ステップS511でNOであれば、つまり人間と長時間会話している状況でなければ、ステップS513で、行く手を塞がれた状況であるか否かを判断する。ステップS513でYESであれば、つまり行く手を塞がれた状況であれば、オペレータ呼出条件を満たすと判断して、ステップS519に進む。一方、ステップS513でNOであれば、つまり行く手を塞がれていない状況であれば、ステップS515で周囲に人が多く存在する状況であるか否かを判断する。ここで、周囲に人が多く存在する状態は、ロボット12または周囲の環境に設けられた他のセンサの出力に基づいて検出されるようにしてもよい。   If “YES” in the step S511, that is, if it is a situation in which a conversation with a human is performed for a long time, it is determined that the operator calling condition is satisfied, and the process proceeds to a step S519. On the other hand, if “NO” in the step S511, that is, if it is not a situation where the person is talking for a long time, in a step S513, it is determined whether or not the going hand is blocked. If “YES” in the step S513, that is, if the hand is closed, it is determined that the operator calling condition is satisfied, and the process proceeds to the step S519. On the other hand, if “NO” in the step S513, that is, if the moving hand is not blocked, it is determined whether or not there are many people around in a step S515. Here, the state where there are many people in the surroundings may be detected based on the output of the robot 12 or other sensors provided in the surrounding environment.

ステップS515でYESであれば、つまり周囲に人が多く存在する状況であれば、オペレータ呼出条件を満たすと判断して、ステップS519に進む。一方、ステップS515でNOであれば、つまり周囲に人が多く存在していない状況であれば、ステップS517で、オペレータ呼出ボタンが押されたかどうかを判断する。なお、オペレータ呼び出しボタンはロボット12または周囲の環境に設けられてもよい。ステップS517でYESであれば、つまりオペレータ呼出条件判定を満たすと判断して、ステップS519に進む。一方、ステップS517でNOであれば、つまりオペレータ呼出ボタンが押されていなければ、図16に示したロボット12の全体処理にリターンする。   If “YES” in the step S515, that is, if there are many people around, it is determined that the operator calling condition is satisfied, and the process proceeds to the step S519. On the other hand, if “NO” in the step S515, that is, if there are not many people around, it is determined whether or not the operator call button has been pressed in a step S517. The operator call button may be provided in the robot 12 or the surrounding environment. If “YES” in the step S517, that is, it is determined that the operator calling condition determination is satisfied, and the process proceeds to the step S519. On the other hand, if NO in step S517, that is, if the operator call button has not been pressed, the process returns to the entire process of the robot 12 shown in FIG.

図18は、図16に示したステップS405の遠隔操作対応処理のフロー図である。図18に示すように、ロボット12のCPU60は、遠隔操作対応処理を開始すると、ステップS601で、中央制御装置14に対して、オペレータ呼出要求を送信し、当該要求に対する応答の受信を待つ。続いて、ステップS603では、中央制御装置14から操作端末16の紹介があったか否かを判断する。たとえば、操作端末16のアドレス(IPアドレス)を含む呼出応答を受信したか、エラーを受信したかが判断される。ステップS603でNOであれば、すなわち中央制御装置14からエラーを受信した場合には、ステップS613で、エラー処理を実行して、図16に示したロボット12の全体処理にリターンする。   FIG. 18 is a flowchart of the remote operation handling process of step S405 shown in FIG. As shown in FIG. 18, when starting the remote operation handling process, the CPU 60 of the robot 12 transmits an operator call request to the central control device 14 and waits for a response to the request in step S601. Subsequently, in step S603, it is determined whether or not the operation terminal 16 has been introduced from the central controller 14. For example, it is determined whether a call response including an address (IP address) of the operation terminal 16 has been received or an error has been received. If “NO” in the step S603, that is, if an error is received from the central controller 14, an error process is executed in a step S613, and the process returns to the entire process of the robot 12 illustrated in FIG.

たとえば、エラー処理では、利用可能な操作端末16(オペレータ)が存在せず、オペレータの遠隔操作による制御が望めないので、ロボット12は自立的にエラー対応処理を行う。たとえば、特定の文章や単語を検出した場合のように、ロボット12自身で対処することができないような状況では、「手空きのオペレータがおりませんので、しばらくお待ちください。」、「申し訳ございません。対応できるオペレータが存在しません。」といった発話を含むコミュニケーション行動を実行するようにすることができる。これによって、ロボット12は、対話相手に、自身が対応不可能な状態であることを知らせることができ、また対話相手の違った反応を引き出して、自立制御で対応可能な状態に変化することが期待される。また、VIPが来たり多くの人に囲まれたりした状況では、エラー対応としての発話や身振りを特に提示せずに、自立制御を継続するようにしてもよい。ただし、エラーを受信してから一定時間経過後に呼出要求を再送信するようにしてもよい。   For example, in the error process, there is no operation terminal 16 (operator) that can be used, and control by remote operation by the operator cannot be expected, so the robot 12 performs the error handling process autonomously. For example, when a specific sentence or word is detected and the robot 12 cannot handle it, “Please wait for a while because there is no available operator.” "There is no operator who can respond." As a result, the robot 12 can inform the conversation partner that the robot 12 is in an incapable state, and can draw a different response from the conversation partner and change to a state that can be handled by independent control. Be expected. Also, in situations where VIPs come or are surrounded by many people, independent control may be continued without specifically presenting utterances or gestures for handling errors. However, the call request may be retransmitted after a predetermined time has elapsed since the error was received.

なお、ステップS613で呼出要求に対する応答の受信待ち時間切れになったと判断されるときには、たとえば、通信困難であることを対話相手に通知したり、呼び出しを再度試みたりしてから、全体に処理にリターンする。   When it is determined in step S613 that the waiting time for receiving a response to the call request has expired, for example, the communication partner is notified that communication is difficult or the call is retried, and then the entire process is performed. Return.

また、ステップS603でYESであれば、すなわち、中央制御装置14から操作端末16を紹介された場合は、ステップS605に進む。なお、上述したように、中央制御装置14からの紹介は、中央制御装置14が操作端末16の識別情報(IPアドレス)を送信することにより行われる。ここで、操作端末16の紹介があったときは、遠隔操作対応モードに移行して、続くステップS605−S611の処理を一定時間後に繰り返し実行する。この遠隔操作対応モードでは、ロボット12の動作は、遠隔操作があったときには操作コマンドに従った動作を実行するが、遠隔操作がないときには自律制御する。   If YES in step S603, that is, if the operation terminal 16 is introduced from the central controller 14, the process proceeds to step S605. As described above, the introduction from the central control device 14 is performed when the central control device 14 transmits the identification information (IP address) of the operation terminal 16. Here, when the operation terminal 16 is introduced, the process shifts to the remote operation support mode, and the processes of subsequent steps S605 to S611 are repeatedly executed after a predetermined time. In this remote operation compatible mode, the robot 12 performs an operation according to the operation command when there is a remote operation, but autonomously controls when there is no remote operation.

ステップS605では、紹介された操作端末16に対して、センサ情報(音声情報,カメラ情報およびセンサ情報など)を送信する。すなわち、マイク54が取得した音声情報(対話相手の発話音声),眼カメラ58が撮影したカメラ情報および赤外線距離センサ28による障害物(対話相手)までの距離などが操作端末16に対して送信される。   In step S605, sensor information (voice information, camera information, sensor information, etc.) is transmitted to the introduced operation terminal 16. That is, the voice information acquired by the microphone 54 (speech voice of the conversation partner), the camera information captured by the eye camera 58, the distance to the obstacle (dialog partner) by the infrared distance sensor 28, and the like are transmitted to the operation terminal 16. The

続いてステップS607では、操作端末16から、自身の動作を制御する操作コマンド(音声情報の送信も含む)を受信したか否かを判断する。ステップS607でNOであれば、すなわち、操作コマンドを受信しなかった場合には、ステップS605に戻る。   Subsequently, in step S607, it is determined whether or not an operation command (including transmission of audio information) for controlling its own operation has been received from the operation terminal 16. If “NO” in the step S607, that is, if an operation command is not received, the process returns to the step S605.

一方、ステップS607でYESであれば、すなわち、操作端末16からの操作コマンドを受信した場合には、ステップS609で遠隔操作終了要求があったか否かを判断する。つまり、ステップS607で受信した操作コマンドが、遠隔操作終了コマンドであったか否かを判断する。   On the other hand, if “YES” in the step S607, that is, if an operation command is received from the operation terminal 16, it is determined whether or not a remote operation end request is made in a step S609. That is, it is determined whether or not the operation command received in step S607 is a remote operation end command.

ステップS609でNOであれば、すなわちコミュニケーション行動を指示する操作コマンドを受信した場合には、ステップS611で、当該操作コマンドに応じた動作を実行して、ステップS605に戻る。このステップS611の処理によって、上述したように、ロボット12の動作が遠隔操作に基づいて制御される。たとえば、スピーカ52およびマイク54を用いた当該操作端末を使用するオペレータと対話相手との会話,お辞儀や指差しなどの身体動作および前進や旋回などの移動を実行する。   If “NO” in the step S609, that is, if an operation command instructing a communication action is received, an operation corresponding to the operation command is executed in a step S611, and the process returns to the step S605. By the processing in step S611, as described above, the operation of the robot 12 is controlled based on the remote operation. For example, a conversation between an operator who uses the operation terminal using the speaker 52 and the microphone 54 and a conversation partner, body movements such as bowing and pointing, and movements such as advancing and turning are executed.

なお、操作コマンドを受信したときに、自律制御によってコミュニケーション行動などを実行中であった場合には、当該実行中の行動が終了するのを待ってから操作コマンドに対応する動作を実行してもよいし、当該実行中の行動を中止してから操作コマンドに対応する動作を実行してもよい。   When a communication action is being executed by autonomous control when an operation command is received, the operation corresponding to the operation command may be executed after waiting for the action being executed to end. Alternatively, the action corresponding to the operation command may be executed after the action being executed is stopped.

一方、ステップS609でYESであれば、図16に示すロボット12の全体処理にリターンする。つまり、ステップS609でYESと判断されるか、ステップS613の処理が終了すれば、ロボット12の動作モードは遠隔操作対応モードから自律制御モードに戻る。   On the other hand, if “YES” in the step S609, the process returns to the entire process of the robot 12 illustrated in FIG. That is, if YES is determined in step S609 or if the process of step S613 ends, the operation mode of the robot 12 returns from the remote operation support mode to the autonomous control mode.

図19は、操作端末16のCPUの遠隔操作処理のフロー図である。図19に示すように、操作端末16のCPUは、遠隔操作処理を開始すると、ステップS701で、中央制御装置14からの遠隔操作依頼が有るか否かを判断する。具体的には、中央制御装置14から送信されたロボット12のIPアドレスを含む遠隔操作依頼を受信したか否かが判断される。   FIG. 19 is a flowchart of the remote operation processing of the CPU of the operation terminal 16. As shown in FIG. 19, when starting the remote operation process, the CPU of the operation terminal 16 determines whether or not there is a remote operation request from the central control device 14 in step S701. Specifically, it is determined whether a remote operation request including the IP address of the robot 12 transmitted from the central control device 14 has been received.

ステップS701でNOであれば、すなわち、中央制御装置14からの遠隔操作依頼がなければ、そのまま同じステップS701に戻る。ただし、このステップS701の処理は一定時間(たとえば、30秒)毎に実行される。一方、ステップS701でYESであれば、すなわち、中央制御装置14からの遠隔操作依頼を有れば、ステップS703で、表示装置に図6や図15に示したような遠隔操作画面210が表示される。   If “NO” in the step S701, that is, if there is no remote operation request from the central control device 14, the process returns to the same step S701 as it is. However, the process of step S701 is executed every certain time (for example, 30 seconds). On the other hand, if “YES” in the step S701, that is, if there is a remote operation request from the central control device 14, the remote operation screen 210 as shown in FIG. 6 or FIG. 15 is displayed on the display device in a step S703. The

なお、この遠隔操作画面210を表示した当初では、当該操作端末16を呼び出したロボット12のカメラ画像および当該ロボット12に関する情報は取得されていないので、ロボットカメラ画像212の内容の表示はない。続いて、ステップS705では、音声チャット処理の実行指示が有るか否かを判断する。ステップS705でYESであれば、すなわち、中央制御装置14から音声チャット処理の実行指示がされれば、ステップS707で、音声チャット処理を実行する。すなわち、中央制御装置14の指示に従い、音声チャット処理を実行する。また、ステップS707の処理が終了すれば、ステップS709に進む。同様にして、ステップS705でNOであっても、ステップS709に進む。さらに、ステップS705またはステップS707の処理が終了すると、続くステップS709−S717の処理が一定時間ごとに繰り返し実行される。   Note that at the beginning of displaying the remote operation screen 210, the camera image of the robot 12 that called the operation terminal 16 and the information related to the robot 12 are not acquired, and therefore the content of the robot camera image 212 is not displayed. Subsequently, in step S705, it is determined whether or not there is an instruction to perform voice chat processing. If “YES” in the step S705, that is, if the execution instruction of the voice chat process is instructed from the central control device 14, the voice chat process is executed in a step S707. That is, the voice chat process is executed in accordance with the instruction from the central controller 14. If the process of step S707 ends, the process proceeds to step S709. Similarly, even if NO in step S705, the process proceeds to step S709. Further, when the process of step S705 or step S707 is completed, the subsequent processes of steps S709 to S717 are repeatedly executed at regular intervals.

ステップS709では、ロボット情報の受信および更新が行われる。すなわち、中央制御装置14またはロボット12からロボット情報を受信して、遠隔操作画面210のロボット情報214の表示を更新する。なお、ロボット情報214を最初に表示する際には、当該ロボット12の位置,名前および対話相手の情報などは中央制御装置14から取得される。また、地図表示のためのロボット12および相手の位置情報は当該ロボット12から取得される。   In step S709, the robot information is received and updated. That is, the robot information is received from the central controller 14 or the robot 12 and the display of the robot information 214 on the remote operation screen 210 is updated. When the robot information 214 is displayed for the first time, the position, name, dialogue partner information, etc. of the robot 12 are acquired from the central controller 14. Further, the position information of the robot 12 and the opponent for map display is acquired from the robot 12.

続いて、ステップS711では、センサ情報(音声情報,カメラ情報および距離情報など)の受信および更新が行われる。すなわち、ロボット12から音声情報を受信して、操作端末16のスピーカから当該音声情報を出力する。また、ロボット12からカメラ情報を受信して、遠隔操作画面のロボットカメラ画像212の表示を更新する。さらに、ロボット12から距離情報を受信して、障害物(対話相手)までの距離を表示する。   Subsequently, in step S711, reception and update of sensor information (voice information, camera information, distance information, etc.) is performed. That is, the audio information is received from the robot 12 and the audio information is output from the speaker of the operation terminal 16. Also, the camera information is received from the robot 12 and the display of the robot camera image 212 on the remote operation screen is updated. Furthermore, distance information is received from the robot 12, and the distance to the obstacle (the conversation partner) is displayed.

なお、ロボット12と当該操作端末16との通信速度Sによっては、ロボット12から送信されないセンサ情報があるため、かかる場合には、一部または全部のセンサ情報についての表示に制限がかかる。   Depending on the communication speed S between the robot 12 and the operation terminal 16, there is sensor information that is not transmitted from the robot 12, and in this case, display of some or all sensor information is limited.

続いてステップS713では、操作コマンドの入力があったか否かを判断する。たとえば、入力装置からの入力データと操作パネル216のボタン配置データとに基づいて、オペレータによって操作コマンドボタンが選択されたか否かが判断される。ステップS713でNOであれば、すなわち、操作コマンドの入力が無い場合には、そのままステップS709に戻る。   In step S713, it is determined whether an operation command has been input. For example, based on input data from the input device and button arrangement data on the operation panel 216, it is determined whether or not an operation command button has been selected by the operator. If “NO” in the step S713, that is, if there is no input of an operation command, the process returns to the step S709 as it is.

一方、ステップS713でYESであれば、すなわち、操作コマンドの入力があった場合には、ステップS715で、選択された操作コマンドを特定し、当該操作コマンドをロボット12に送信する。   On the other hand, if “YES” in the step S713, that is, if an operation command is input, the selected operation command is specified in a step S715, and the operation command is transmitted to the robot 12.

そして、ステップS717で、遠隔操作の終了要求があったか否かを判断する。つまり、ステップS713で入力された操作コマンドが遠隔操作の終了を指示するコマンド(終了コマンド)であるか否かを判断する。ステップS713でNOであれば、すなわち終了コマンドが入力されていない場合には、そのままステップS709に戻る。一方、ステップS717でYESであれば、すなわち、オペレータによって終了コマンドが入力された場合には、遠隔操作処理を終了する。   In step S717, it is determined whether or not there has been a remote operation termination request. That is, it is determined whether or not the operation command input in step S713 is a command (end command) for instructing the end of the remote operation. If “NO” in the step S713, that is, if an end command is not input, the process returns to the step S709 as it is. On the other hand, if YES in step S717, that is, if an end command is input by the operator, the remote operation processing is ended.

この実施例によれば、ロボットからの呼出要求があると、ロボットの対話相手の要求を満たすスキルを持つ1人または複数のオペレータを選択し、選択した1人または複数のオペレータがロボットを遠隔操作し、当該ロボットを通して、対話相手とコミュニケーションすることができる。したがって、対話相手の要求に適切に対応することができる。   According to this embodiment, when there is a call request from the robot, one or more operators having skills that satisfy the request of the robot's conversation partner are selected, and the selected one or more operators remotely operate the robot. In addition, it is possible to communicate with the conversation partner through the robot. Therefore, it is possible to appropriately respond to the request of the conversation partner.

なお、本実施例では、赤外線距離センサ28を用いているが、赤外線距離センサ28に代えて、超音波距離センサやミリ波レーダなどを用いてロボット12と対話相手との距離を計測してもよい。また、オペレータ選択処理では、3つ言語の「らしさ演算」を行っているが、必要に応じて言語の数を増やしてもよい。   In this embodiment, the infrared distance sensor 28 is used. However, instead of the infrared distance sensor 28, the distance between the robot 12 and the conversation partner may be measured using an ultrasonic distance sensor, a millimeter wave radar, or the like. Good. In the operator selection process, “likeness calculation” of three languages is performed, but the number of languages may be increased as necessary.

また、ロボット12のオペレータの呼出フラグは、体表に設けた接触などを検出するセンサ(たとえば、皮膚センサ)で、そのロボット12自身が殴られたことを検出し、オンになるようにしてもよい。また、ロボット12は、呼出要求を送信する場合に、さらに、一時的にロボットセンサ情報(音声情報,カメラ情報および距離情報など)が記憶されるようにしてもよい。   Further, the call flag of the operator of the robot 12 is detected by a sensor (for example, a skin sensor) for detecting contact or the like provided on the body surface to detect that the robot 12 has been beaten and turned on. Good. Further, when transmitting a call request, the robot 12 may further temporarily store robot sensor information (such as voice information, camera information, and distance information).

図1はこの発明の一実施例のロボット遠隔操作システムの概要を示す図解図である。FIG. 1 is an illustrative view showing an outline of a robot remote control system according to an embodiment of the present invention. 図2は図1に示すロボットの外観を正面から見た図解図である。FIG. 2 is an illustrative view showing the appearance of the robot shown in FIG. 1 from the front. 図3は図1に示すロボットの電気的な構成を示すブロック図である。FIG. 3 is a block diagram showing an electrical configuration of the robot shown in FIG. 図4は図1に示す中央制御装置のデータベースに記憶されるロボット情報テーブルの一例を示す図解図である。FIG. 4 is an illustrative view showing one example of a robot information table stored in the database of the central controller shown in FIG. 図5は図1に示す中央制御装置のデータベースに記憶されるオペレータ端末情報テーブルの一例を示す図解図である。FIG. 5 is an illustrative view showing one example of an operator terminal information table stored in the database of the central controller shown in FIG. 図6は図1に示す操作端末の表示装置に表示される遠隔操作画面の一例を示す図解図である。6 is an illustrative view showing one example of a remote operation screen displayed on the display device of the operation terminal shown in FIG. 図7は図1に示す中央制御措置のCPUの全体処理を示すフロー図である。FIG. 7 is a flowchart showing the entire processing of the CPU of the central control measure shown in FIG. 図8は図1に示す中央制御措置のCPUのオペレータ選択処理の一部を示すフロー図である。FIG. 8 is a flowchart showing a part of the CPU operator selection process of the central control measure shown in FIG. 図9は図1に示す中央制御措置のCPUのオペレータ選択処理の他の一部であって、図8に後続するフロー図である。FIG. 9 is another part of the CPU operator selection process of the central control measure shown in FIG. 1, and is a flowchart subsequent to FIG. 図10は図1に示す中央制御措置のCPUのオペレータ選択処理のその他の一部であって、図9に後続するフロー図である。FIG. 10 is another part of the CPU operator selection process of the central control measure shown in FIG. 1, and is a flowchart subsequent to FIG. 図11は図1に示す中央制御措置のCPUのオペレータ選択処理のさらに他の一部であって、図10に後続するフロー図である。FIG. 11 is still another part of the CPU operator selection process of the central control measure shown in FIG. 1, and is a flowchart subsequent to FIG. 図12は図1に示す中央制御措置のCPUの条件リスト作成処理を示すフロー図である。FIG. 12 is a flowchart showing a condition list creation process of the CPU of the central control measure shown in FIG. 図13は図1に示す中央制御措置のCPUのオペレータの検索処理を示すフロー図である。FIG. 13 is a flowchart showing the search process of the CPU operator of the central control measure shown in FIG. 図14は図1に示す中央制御措置のCPUのセンサ情報選択処理を示すフロー図である。FIG. 14 is a flowchart showing sensor information selection processing of the CPU of the central control measure shown in FIG. 図15は図1に示す操作端末の表示装置に表示される遠隔操作画面の他の例を示す図解図である。FIG. 15 is an illustrative view showing another example of a remote operation screen displayed on the display device of the operation terminal shown in FIG. 図16は図1に示すロボットのCPUの全体処理を示すフロー図である。FIG. 16 is a flowchart showing the overall processing of the CPU of the robot shown in FIG. 図17は図1に示すロボットのCPUのオペレータ呼出条件判定処理を示すフロー図である。FIG. 17 is a flowchart showing operator call condition determination processing of the CPU of the robot shown in FIG. 図18は図1に示すロボットのCPUの遠隔操作対応処理を示すフロー図である。FIG. 18 is a flowchart showing a remote operation handling process of the CPU of the robot shown in FIG. 図19は図1に示す操作端末のCPUの遠隔操作処理を示すフロー図である。FIG. 19 is a flowchart showing remote operation processing of the CPU of the operation terminal shown in FIG.

符号の説明Explanation of symbols

10 …ロボット遠隔操作システム
12 …コミュニケーションロボット
14 …中央制御装置
16 …操作端末
28 …超音波距離センサ
34 …全方位カメラ
46 …接触センサ
52 …スピーカ
54 …マイク
58 …眼カメラ
60 …CPU
62 …バス
64 …メモリ
66 …モータ制御ボード
68 …センサ入力/出力ボード
70 …音声入力/出力ボード
82 …通信LANボード
84 …無線通信装置
86 …無線タグ読取装置
100 …ネットワーク
DESCRIPTION OF SYMBOLS 10 ... Robot remote control system 12 ... Communication robot 14 ... Central controller 16 ... Operation terminal 28 ... Ultrasonic distance sensor 34 ... Omnidirectional camera 46 ... Contact sensor 52 ... Speaker 54 ... Microphone 58 ... Eye camera 60 ... CPU
62 ... Bus 64 ... Memory 66 ... Motor control board 68 ... Sensor input / output board 70 ... Audio input / output board 82 ... Communication LAN board 84 ... Wireless communication device 86 ... Wireless tag reader 100 ... Network

Claims (5)

遠隔操作または自律制御により、人間との間で身体動作および音声の少なくとも一方によるコミュニケーション行動を行うロボットと、ネットワークを介して前記ロボットの遠隔操作を行う複数の操作端末と、前記ネットワークを介して前記ロボットと前記操作端末との仲介を行う中央制御装置とを有する、ロボット遠隔操作システムであって
前記ロボットが自律制御により前記人間との間におけるコミュニケーション行動の実行が困難であるかどうかを判断する判断手段
自律制御により前記人間との間におけるコミュニケーション行動の実行が困難であると判断されたとき、前記ロボットの遠隔操作を行う操作者が満たすべき条件についての条件リストを作成する条件リスト作成手段、
前記複数の操作端末の各々について操作者の属性情報を含む端末情報を記憶する端末情報記憶手段、
前記条件作成手段によって作成された条件リストと前記端末情報記憶手段に記憶された端末情報とに基づいて前記条件リストの全部または一部の条件を満足する端末情報を有する第1操作端末と、当該一部の条件を除く残りの条件を満足する端末情報を有する1または複数の第2操作端末とを前記ロボットの遠隔操作を行う操作端末として選択する選択手段、および
前記ロボットと前記第1操作端末および前記第2操作端末とを前記ネットワークを介して通信可能に接続させる接続制御手段を備える、ロボット遠隔操作システム。
A robot that performs communication with humans through at least one of body movement and voice by remote control or autonomous control, a plurality of operation terminals that perform remote control of the robot via a network, and the network via the network and a central controller for mediating the robot and the operation terminal, a robot remote manipulation system,
Judgment means for judging whether or not the robot is difficult to execute communication behavior with the human by autonomous control ;
When the execution of the communication behavior between the said human by autonomous control is determined to be difficult, before Symbol condition list creation means for creating a list of conditions for the operator condition to be satisfied to perform the remote control of the robot,
Terminal information storage means for storing terminal information including operator attribute information for each of the plurality of operation terminals;
Based on the terminal information stored in the condition list created said terminal information storage means by the condition creating means, first operation that having a terminal information satisfying all or part of the conditions of the condition list wherein the terminal selection means selects the one or more second operation terminal having terminal information satisfying the remaining conditions as an operation terminal for remote control of the robot, except for the part condition, and said robot a first operation terminal and the second operation terminal Ru with a connection control means for communicably connected via the network, the robot remote control system.
特定条件が満たされたとき、前記選択手段による第2操作端末の選択を制限する制限手段をさらに備える、請求項1記載のロボット遠隔操作システム。The robot remote operation system according to claim 1, further comprising a restriction unit that restricts selection of the second operation terminal by the selection unit when a specific condition is satisfied. 前記特定条件は、前記条件リストの全条件において満たされた条件の数が一定の割合を超えるという条件を含み、
前記制限手段は、前記条件リストの全条件において満たされた条件の数が一定の割合を超えたとき、前記選択手段による第2操作端末の選択を制限する、請求項2記載のロボット遠隔操作システム。
The specific condition includes a condition that the number of conditions are met Oite in all conditions of the condition list exceeds a certain percentage of,
Said limiting means when said number of conditions are met in all conditions of condition list exceeds a certain rate, limiting the selection of the second operation terminal by said selecting means, robot remote manipulation system of claim 2, wherein .
前記特定条件は、選択手段によって選択された第1操作端末および第2操作端末の数が一定数以上であるという条件を含み、
記選択手段によって選択された第1操作端末および第2操作端末の数が一定数以上であるかどうかを判定する端末数判定手段をさらに備え、
前記制限手段は、前記端末数判定手段によって一定数以上であることが判定されたとき、前記選択手段による第2操作端末の選択を制限する、請求項2または3記載のロボット遠隔操作システム。
The specific condition includes a condition that the number of the first operation terminal and the second operation terminal selected by the selection unit is a certain number or more,
Before Symbol further comprising the number of the first operation terminal and the second operation terminal selected by the selecting means to the terminal number determination means for determining whether at either more than a certain number,
It said limiting means, when it is determined at more than a certain number by the terminal number determination unit, to limit the selection of the second operation terminal by the selecting unit, according to claim 2 or 3 robot remote manipulation system as claimed.
記ロボットと前記第1操作端末および前記第2操作端末との通信速度によって前記ロボットから前記第1操作端末および前記第2操作端末に送信する前記ロボットの情報を制御する送信情報制御手段をさらに備える、請求項1ないしのいずれかに記載のロボット遠隔操作システム。 The communication speed between the front Symbol robot and the first operation terminal and the second operation terminal, a transmission information control means for controlling the information of the robot to be transmitted from the robot to the first operation terminal and the second operation terminal The robot remote control system according to any one of claims 1 to 4 , further comprising:
JP2007264118A 2007-10-10 2007-10-10 Robot remote control system Active JP5070441B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007264118A JP5070441B2 (en) 2007-10-10 2007-10-10 Robot remote control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007264118A JP5070441B2 (en) 2007-10-10 2007-10-10 Robot remote control system

Publications (2)

Publication Number Publication Date
JP2009090420A JP2009090420A (en) 2009-04-30
JP5070441B2 true JP5070441B2 (en) 2012-11-14

Family

ID=40662923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007264118A Active JP5070441B2 (en) 2007-10-10 2007-10-10 Robot remote control system

Country Status (1)

Country Link
JP (1) JP5070441B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3567695A1 (en) 2018-05-11 2019-11-13 Toyota Jidosha Kabushiki Kaisha Autonomous moving system, autonomous moving body, charging dock, control method, and program
US20200298408A1 (en) * 2017-10-31 2020-09-24 Kawasaki Jukogyo Kabushiki Kaisha Robot system
US11856332B2 (en) 2021-03-24 2023-12-26 Toyota Jidosha Kabushiki Kaisha Remote operation system, remote operation mobile body, remote operation method, and program
US11950024B2 (en) 2021-03-23 2024-04-02 Toyota Jidosha Kabushiki Kaisha Remote operation system, remote operation method, and program
JP7505425B2 (en) 2021-03-18 2024-06-25 トヨタ自動車株式会社 Remote Control System

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5453908B2 (en) * 2009-05-08 2014-03-26 日本電気株式会社 Robot equipment
CN103419203A (en) * 2012-05-21 2013-12-04 李坚 All-day domestic robot
US9463572B2 (en) * 2012-09-11 2016-10-11 Eugene R. Parente System for remotely swinging a golf club
JP6902370B2 (en) * 2017-03-15 2021-07-14 株式会社オカムラ Management system, management method and program
JP7013689B2 (en) * 2017-06-21 2022-02-01 富士フイルムビジネスイノベーション株式会社 Remote-controlled mobile robots and robot control systems
JP6861604B2 (en) * 2017-10-02 2021-04-21 株式会社オカムラ Management system and control method
JP7067414B2 (en) * 2018-10-24 2022-05-16 トヨタ自動車株式会社 Communication robots and control programs for communication robots
JP2021062426A (en) * 2019-10-10 2021-04-22 沖電気工業株式会社 Robot system
CN111312385A (en) * 2020-03-06 2020-06-19 西门子医疗系统有限公司 Processing device, method and system for controlling medical equipment
CN111326249A (en) * 2020-03-06 2020-06-23 西门子医疗系统有限公司 Processing device, user equipment and system for controlling medical equipment
JP7477651B2 (en) 2020-12-24 2024-05-01 川崎重工業株式会社 ROBOT SYSTEM AND ROBOT OPERATION METHOD

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040042242A (en) * 2002-11-13 2004-05-20 삼성전자주식회사 home robot using home server and home network system having the robot
JP4751192B2 (en) * 2005-12-12 2011-08-17 本田技研工業株式会社 Mobile robot
JP4639343B2 (en) * 2006-01-20 2011-02-23 株式会社国際電気通信基礎技術研究所 Robot remote control system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200298408A1 (en) * 2017-10-31 2020-09-24 Kawasaki Jukogyo Kabushiki Kaisha Robot system
US11850758B2 (en) * 2017-10-31 2023-12-26 Kawasaki Jukogyo Kabushiki Kaisha System for correcting robot operations among simultaneously automatically operated robots
EP3567695A1 (en) 2018-05-11 2019-11-13 Toyota Jidosha Kabushiki Kaisha Autonomous moving system, autonomous moving body, charging dock, control method, and program
US11175672B2 (en) 2018-05-11 2021-11-16 Toyota Jidosha Kabushiki Kaisha Autonomous moving system, autonomous moving body, charging dock, control method, and program
JP7505425B2 (en) 2021-03-18 2024-06-25 トヨタ自動車株式会社 Remote Control System
US11950024B2 (en) 2021-03-23 2024-04-02 Toyota Jidosha Kabushiki Kaisha Remote operation system, remote operation method, and program
US11856332B2 (en) 2021-03-24 2023-12-26 Toyota Jidosha Kabushiki Kaisha Remote operation system, remote operation mobile body, remote operation method, and program

Also Published As

Publication number Publication date
JP2009090420A (en) 2009-04-30

Similar Documents

Publication Publication Date Title
JP5070441B2 (en) Robot remote control system
JP4639343B2 (en) Robot remote control system
JP5033994B2 (en) Communication robot
JP4386367B2 (en) Communication robot improvement system
JP4822319B2 (en) Communication robot and attention control system using the same
JP2009241166A (en) Robot remote operation system
JP5429462B2 (en) Communication robot
TWI694904B (en) Robot speech control system and method
JP5366048B2 (en) Information provision system
JP5145569B2 (en) Object identification method and apparatus
JP2007260822A (en) Guide robot
JP2007222968A (en) Communication robot
WO2019138619A1 (en) Information processing device, information processing method and program
JP2012139798A (en) Mobile robot, learning system for the same, and method of learning action of the same
JP2009131914A (en) Robot control system
JP2007160427A (en) Robot control system
JP4962940B2 (en) Route guidance system
CN111515970B (en) Interaction method, mimicry robot and related device
JP2015066621A (en) Robot control system, robot, output control program and output control method
JP2019147234A (en) Device, robot, method, and program
JP6468643B2 (en) Communication system, confirmation action determination device, confirmation action determination program, and confirmation action determination method
JP5163202B2 (en) Article estimation system
JP5866646B2 (en) Communication system, utterance content generation device, utterance content generation program, and utterance content generation method
JP5115886B2 (en) Road guidance robot
JP5194314B2 (en) Communication system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120619

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120706

R150 Certificate of patent or registration of utility model

Ref document number: 5070441

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150831

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250