JP2008036799A - Robot system - Google Patents

Robot system Download PDF

Info

Publication number
JP2008036799A
JP2008036799A JP2006216777A JP2006216777A JP2008036799A JP 2008036799 A JP2008036799 A JP 2008036799A JP 2006216777 A JP2006216777 A JP 2006216777A JP 2006216777 A JP2006216777 A JP 2006216777A JP 2008036799 A JP2008036799 A JP 2008036799A
Authority
JP
Japan
Prior art keywords
robot
communication unit
unit
communication
infrared
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006216777A
Other languages
Japanese (ja)
Inventor
Seiichiro Okada
誠一郎 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2006216777A priority Critical patent/JP2008036799A/en
Publication of JP2008036799A publication Critical patent/JP2008036799A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot system in which a robot highly accurately recognizes the position of itself, and a cumulative error of dead reckoning is corrected. <P>SOLUTION: In the robot system including the robot 1 and an environmental apparatus 24, the robot 1 moves in an operating environment with a moving part 21, and performs a prescribed operation in accordance with an operation command from the environmental apparatus 24 through a communication part 4. The communication parts 2, 4 are provided with an optical communication means giving and receiving information through blinking optical signals, and the robot 1 is provided with an image recognition part and corrects the position of itself in the operating environment by recognizing a lighting position of the optical signals with the image recognition part. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明はロボットシステムに関する。さらに詳しくは、外部の機器と赤外線による通信を行う機能を備え、移動手段を有するロボットを用いたシステムに関する。   The present invention relates to a robot system. More specifically, the present invention relates to a system using a robot having a function of performing infrared communication with an external device and having moving means.

従来のロボットシステムにおいては、互いに近接して移動する移動体間の位置情報をやりとりする通信を行うものがあった(例えば、特許文献1参照)。また、環境内に周囲状況観測装置が設置され、ロボットなどに備えた赤外線タグに基づいてロボットに指令を与えるものがあった(例えば、特許文献2参照)。   Some conventional robot systems perform communication for exchanging position information between moving bodies that move close to each other (see, for example, Patent Document 1). In addition, there has been an environment monitoring device installed in the environment that gives commands to the robot based on an infrared tag provided in the robot or the like (for example, see Patent Document 2).

特許文献1のロボットシステムは、図11に示すように、ロボット105と106が、赤外線光、可視光信号、超音波信号、無線周波信号などを放射することにより互いの間の距離、方向、姿勢の情報を得るというものであった。ロボット106は、受信区域RZを確立する右前方の受信機により信号を受信する。これにより、ロボット105の方向は、右前方の方向であると推定することができる。さらに、信号TZが識別され、ロボット105に対する空間区域の場所にマッピングされると、ロボット106では、ロボット105の向きを推定することができる。
その結果、ロボット105の方向およびロボット105の向きの双方を、ロボット106で推定することができる。ロボット105は、上述したタイプの信号を放射し、ロボット106はその信号を受信できて、かつ、ロボット105の放射照度区域の情報を符号化した識別コードとして持つ。
As shown in FIG. 11, the robot system disclosed in Patent Document 1 is configured such that the robots 105 and 106 radiate infrared light, visible light signals, ultrasonic signals, radio frequency signals, and the like so that the distance, direction, and posture between each other. It was to get the information. Robot 106 receives a signal by the front right receiver for establishing the reception zone RZ 1. Thereby, it can be estimated that the direction of the robot 105 is a right front direction. Further, once the signal TZ 1 is identified and mapped to the location of the spatial area relative to the robot 105, the robot 106 can estimate the orientation of the robot 105.
As a result, both the direction of the robot 105 and the direction of the robot 105 can be estimated by the robot 106. The robot 105 emits a signal of the type described above, and the robot 106 can receive the signal and has an identification code in which information on the irradiance area of the robot 105 is encoded.

また、特許文献2のロボットシステムは、図12に示すように、環境内に設置された周囲状況観測装置216によって周囲の状況が観測され、人間P2などに装着された人間用観測装置218によって当該人間の視点からの状況が観測され、また、ロボット本体212によって当該ロボットの視点からの状況が観測される。
展示物B1〜B4や人間用観測装置218などには赤外線タグ214が取付けられ、これによって各観測装置では識別情報を含むデータが取得される。したがって、このような環境内における人間や展示物などの間のインタラクションが観測され、その人間の行動履歴がデータベースに逐次記録される。そして、対話相手についての過去の行動データを解析し、その状態に基づいて、対話相手に提示すべき案内や推薦などの行動が決定され、ロボット本体212は当該行動を実行する。
In the robot system of Patent Document 2, as shown in FIG. 12, the surrounding situation is observed by the surrounding situation observation device 216 installed in the environment, and the human observation device 218 attached to the human P2 or the like The situation from the viewpoint of a human is observed, and the situation from the viewpoint of the robot is observed by the robot body 212.
An infrared tag 214 is attached to the exhibits B1 to B4, the human observation device 218, and the like, and thereby data including identification information is acquired in each observation device. Therefore, an interaction between a person and an exhibit in such an environment is observed, and the action history of the person is sequentially recorded in the database. Then, past behavior data regarding the conversation partner is analyzed, and behaviors such as guidance and recommendation to be presented to the conversation partner are determined based on the state, and the robot main body 212 executes the behavior.

特表2004−536715号公報(図1)Japanese translation of PCT publication No. 2004-536715 (FIG. 1) 特開2005−131713号公報(図1)Japanese Patent Laying-Open No. 2005-131713 (FIG. 1)

しかしながら、特許文献1のロボットシステムは、受信機の受信感度および送信機の放射照度に対応した区域によるマッピングを行うため、ロボットを玩具として多様な動作をさせたり、ロボット同士の衝突を回避したりする目的には十分であるが、位置の精度が低く、移動により生じるデッドレコニングの累積誤差を補正することができなかった。
また、特許文献2のロボットシステムは、ロボットの行動を赤外線信号に基づいて決定するが、やはり上記の誤差を補正できるものではなかった。
そこで本発明では、ロボットが高い精度で自己位置を認識し、上記の誤差を補正することができるロボットシステムを提供することを目的とする。
However, since the robot system of Patent Document 1 performs mapping according to the area corresponding to the reception sensitivity of the receiver and the irradiance of the transmitter, the robot system performs various operations using the robot as a toy and avoids collisions between robots. This is sufficient for the purpose, but the accuracy of the position is low and the accumulated error of dead reckoning caused by the movement cannot be corrected.
Moreover, although the robot system of patent document 2 determines the action of a robot based on an infrared signal, it could not correct the above error.
Therefore, an object of the present invention is to provide a robot system in which the robot can recognize its own position with high accuracy and correct the above error.

上記問題を解決するため、本発明は、次のように構成したのである。
請求項1に記載の発明は、外部との通信を行う第1の通信部と、移動部と、前記第1の通信部と前記移動部とを制御する第1の制御部とを備えたロボットと、前記ロボットの動作環境内に設置され、前記第1の通信部と通信可能な第2の通信部と、前記第2の通信部を制御する第2の制御部とを備えた環境装置とを含み、前記ロボットは、前記第2の通信部を介した前記環境装置からの動作指令に従って前記移動部により前記動作環境を移動し所定の動作を行うロボットシステムであって、前記第1および第2の通信部は、光信号の点滅により情報を授受する光通信手段を備え、前記ロボットは、画像認識部を備え、前記画像認識部にて前記光信号の点灯位置を認識することにより前記動作環境における自己の位置を補正することを特徴とする。
請求項2に記載の発明は、前記ロボットは、前記動作指令と前記第2の通信部が送信する信号との対応を示すコード表を前記第1の制御部に備え、前記コード表の内容と実際に前記第1の通信部にて受信した信号との比較により前記動作環境における自己の位置の補正することを特徴とする。
請求項3に記載の発明は、前記ロボットは、前記第1の通信部として発光手段あるいは受光手段を複数個有し、前記受光手段による検出結果の論理和をとることを特徴とする。
請求項4に記載の発明は、前記環境装置は、前記ロボットに前記第2の通信部と前記第2の制御部の機能を加えた別のロボットであることを特徴とする。
請求項5に記載の発明は、前記第1の制御部は、前記画像認識部で撮像した画像により前記第2の通信部の発光手段の点灯を認識して、前記第2の通信部が正常に作動していることを確認することを特徴とする。
In order to solve the above problem, the present invention is configured as follows.
The invention according to claim 1 is a robot including a first communication unit that communicates with the outside, a moving unit, and a first control unit that controls the first communication unit and the moving unit. An environment device comprising: a second communication unit that is installed in an operating environment of the robot and that can communicate with the first communication unit; and a second control unit that controls the second communication unit; The robot is a robot system which moves the operating environment by the moving unit according to an operation command from the environmental device via the second communication unit and performs a predetermined operation. The communication unit 2 includes an optical communication unit that transmits and receives information by blinking an optical signal, and the robot includes an image recognition unit, and the image recognition unit recognizes the lighting position of the optical signal and performs the operation. Characterized by correcting its position in the environment .
According to a second aspect of the present invention, the robot includes a code table indicating correspondence between the operation command and a signal transmitted by the second communication unit in the first control unit, It is characterized by correcting its own position in the operating environment by comparison with a signal actually received by the first communication unit.
The invention described in claim 3 is characterized in that the robot has a plurality of light emitting means or light receiving means as the first communication unit and takes a logical sum of detection results by the light receiving means.
The invention described in claim 4 is characterized in that the environmental device is another robot in which the functions of the second communication unit and the second control unit are added to the robot.
According to a fifth aspect of the present invention, the first control unit recognizes the lighting of the light emitting means of the second communication unit from the image captured by the image recognition unit, and the second communication unit is normal. It is characterized by confirming that it is operating.

請求項1に記載の発明によると、画像認識部で捉えた画像データによって環境に設置した発光手段を認識できるため、ランドマークを別に設置することなく移動により生じるデッドレコニングの累積誤差を補正することができる。
また、請求項2に記載の発明によると、自己位置補正のための座標情報を通信データから分離できるため、通信データ量を少なく抑え、通信障害を少なくするとともに通信遅延も少なくすることができる。
また、請求項3に記載の発明によると、複数の受光手段によって取得した発光手段のON/OFF情報の論理和をとることにより、複数の受光手段のうち、いずれか1つでも受信できればよいので、発光手段からの情報を受信可能なロボットの位置や姿勢を広げることができる。
また、請求項4に記載の発明によると、ロボット同士の通信ができるため、自己位置補正を行う機会が増え、動作精度を向上できる。
また、請求項5に記載の発明によると、ロボットは画像認識により環境に設置した発光手段の状態を確認し、発光していない場合のエラー処理を行うため、通信性能を向上することができる。
According to the first aspect of the present invention, since the light emitting means installed in the environment can be recognized from the image data captured by the image recognition unit, the accumulated error of dead reckoning caused by the movement can be corrected without installing a landmark separately. Can do.
According to the second aspect of the present invention, since coordinate information for self-position correction can be separated from communication data, the amount of communication data can be reduced, communication failures can be reduced, and communication delay can be reduced.
According to the third aspect of the present invention, any one of the plurality of light receiving means may be received by calculating the logical sum of the ON / OFF information of the light emitting means acquired by the plurality of light receiving means. The position and posture of the robot that can receive information from the light emitting means can be expanded.
According to the invention described in claim 4, since the robots can communicate with each other, the opportunity to perform self-position correction increases and the operation accuracy can be improved.
According to the invention described in claim 5, since the robot checks the state of the light emitting means installed in the environment by image recognition and performs error processing when no light is emitted, the communication performance can be improved.

以下、本発明の実施の形態について図を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は本発明の一実施例であって、ロボット1が座席についた人8へ飲食物9を給仕する店のシステムを構成する各要素を示した概要図である。ただしシステムの態様は本実施例に制限されず、赤外線を用いてロボットを制御する全てのシステムに適用されうる。
図1において、1はロボットであり、移動部21(図2)を備えており平面上を移動できる。また、飲食物9を把持するためのアームを備えている。22はロボット1内の通信部2(図2)と接続された赤外線受光部であり、3は後述する赤外線LEDの設置場所を捉えるためのカメラである。
4は環境側に設置される通信部であり、ロボット1の通信部2と赤外線による通信を行う。5は通信部4とネットワークハブ6を介して接続される環境PCである。7はロボット1の動作環境に設置され、通信部4の指令により発光する赤外線LEDである。図1に示す店のシステムでは、人8の行動や環境PC5内のプログラムによる指令が、ロボット1の行動のトリガとなるように構成されている。
例えば人8の来店時には、ロボット1の発話手段(図示せず)により「いらっしゃいませ」などの発話を行ったり表示部に同様のメッセージを表示したりするよう、通信部4から赤外線LED7を介してロボット1へ動作指令データが送られる。赤外線通信の方法については図2を用いて後述する。人8の来店・注文などをセンサにより検知する方法の詳細は省略する。また、上記の動作指令データの内容によって、発話に限らず、例えば一連の配膳動作などをロボット1に行わせることもできる。
FIG. 1 is an example of the present invention, and is a schematic view showing each element constituting a system of a store where a robot 1 serves food and drink 9 to a person 8 on a seat. However, the mode of the system is not limited to this embodiment, and can be applied to all systems that control a robot using infrared rays.
In FIG. 1, reference numeral 1 denotes a robot, which includes a moving unit 21 (FIG. 2) and can move on a plane. Moreover, the arm for holding the food / beverage 9 is provided. Reference numeral 22 denotes an infrared light receiving unit connected to the communication unit 2 (FIG. 2) in the robot 1, and 3 denotes a camera for capturing an installation location of an infrared LED to be described later.
Reference numeral 4 denotes a communication unit installed on the environment side, which performs infrared communication with the communication unit 2 of the robot 1. Reference numeral 5 denotes an environment PC connected to the communication unit 4 via the network hub 6. Reference numeral 7 denotes an infrared LED which is installed in the operating environment of the robot 1 and emits light according to a command from the communication unit 4. The store system shown in FIG. 1 is configured such that an action of the person 8 or a command by a program in the environment PC 5 triggers the action of the robot 1.
For example, when the person 8 visits the store, the communication unit 4 sends an utterance such as “I welcome” by the utterance means (not shown) of the robot 1 or displays a similar message on the display unit via the infrared LED 7. Operation command data is sent to the robot 1. The infrared communication method will be described later with reference to FIG. Details of the method of detecting the visit of the person 8 or the order by the sensor are omitted. Further, depending on the contents of the above-described operation command data, the robot 1 can be made to perform a series of catering operations, for example, without being limited to speech.

図2は本発明のロボットシステムの概略を示すブロック図である。図1と同じ符号は同一のものを指す。図2に示すように、環境装置24は通信部4と制御部25とで構成される。さらに通信部4は、赤外線リモコン送信機11とI/O変換部12とで構成される。
I/O変換部12の具体例としてはリモートI/Oが挙げられる。リモートI/Oとは、ホストPC上から、専用のアプリケーションプログラミングインターフェース(API)により、イーサネット(登録商標)などのネットワークを経由して遠隔地との間でデジタルアウトプットあるいはデジタルインプットを行うものである。
本発明の場合、環境PC5がホストPCに相当する。I/O変換部12は、イーサネット(登録商標)ケーブルとネットワークハブ6を介して制御部25側と接続される。図2においては、ネットワークハブ6は省略している。
FIG. 2 is a block diagram showing an outline of the robot system of the present invention. The same reference numerals as those in FIG. As shown in FIG. 2, the environmental device 24 includes a communication unit 4 and a control unit 25. Further, the communication unit 4 includes an infrared remote control transmitter 11 and an I / O conversion unit 12.
A specific example of the I / O conversion unit 12 is remote I / O. Remote I / O is to perform digital output or digital input from a host PC via a dedicated application programming interface (API) via a network such as Ethernet (registered trademark). is there.
In the present invention, the environment PC 5 corresponds to the host PC. The I / O conversion unit 12 is connected to the control unit 25 side via an Ethernet (registered trademark) cable and the network hub 6. In FIG. 2, the network hub 6 is omitted.

制御部25は、環境PC5とその他のPC群により、クライアント・サーバシステムの形態で構成される。環境PC5上では以下のソフトウェアが起動される。すなわち、I/O変換部12への制御情報をデジタル信号として出力するリモコン送信サーバ13、リモコン送信サーバ13に動作指令データを送るリモコン送信クライアント14、着席検知クライアント15である。
また、音声認識クライアント16も起動される。ここで、各クライアントはすべて同一の環境PC5内で動作してもよいし、イーサネット(登録商標)などを介して接続された別のPC上で動作してもよい。図2は音声認識クライアント16を環境PC5とは別のPC上で起動した例である。
各クライアントの内部の動作については、本発明では詳細な説明を省略するが、各クライアントは動作指令データをリモコン送信サーバ13に送信し、この送信が、ロボット1の動作のトリガとなる。
The control unit 25 is configured in the form of a client / server system by the environment PC 5 and other PC groups. The following software is activated on the environment PC 5. That is, a remote control transmission server 13 that outputs control information to the I / O conversion unit 12 as a digital signal, a remote control transmission client 14 that transmits operation command data to the remote control transmission server 13, and a seating detection client 15.
The voice recognition client 16 is also activated. Here, all the clients may operate in the same environment PC 5 or may operate on another PC connected via Ethernet (registered trademark) or the like. FIG. 2 shows an example in which the voice recognition client 16 is activated on a PC different from the environment PC 5.
Although detailed description of the internal operation of each client is omitted in the present invention, each client transmits operation command data to the remote control transmission server 13, and this transmission serves as a trigger for the operation of the robot 1.

着席検知クライアント15を例にとって具体例を説明する。着席検知クライアント15は図1の各座席に内蔵された圧力センサなどで座席が空席か否かを監視しており、客の着席を感知すると同時にどの座席に客が座ったかを示す動作指令データをリモコン送信サーバ13に送信する。本実施例では動作指令データは所定の文字列であり、例えば、客がロボット1から見て右側の席に座った場合に着席検知クライアント15が出力する動作指令データを”Cafe_sitdown_right”などとする。リモコン送信サーバ13は、表1に示すような、動作指令データと動作指令データに応じて赤外線リモコンがロボット1へ送信するチャンネルとを関連づけたコード表を持っている。   A specific example will be described taking the seating detection client 15 as an example. The seating detection client 15 monitors whether or not the seat is vacant by using a pressure sensor or the like built in each seat of FIG. Transmit to the remote control transmission server 13. In this embodiment, the operation command data is a predetermined character string. For example, the operation command data output from the seating detection client 15 when the customer sits on the right seat as viewed from the robot 1 is “Cafe_sitdown_right”. The remote control transmission server 13 has a code table as shown in Table 1 in which operation command data is associated with a channel transmitted from the infrared remote controller to the robot 1 in accordance with the operation command data.

前述の例に沿ってロボット1への送信の流れを説明する。
まず、リモコン送信サーバ13が着席検知クライアント15から動作指令データ
”Cafe_sitdown_right” を受け取る。このクライアント−サーバ間通信には、例えばソケット通信などを用いることが考えられる。リモコン送信サーバ13は、表1のコード表に基づいて通信部4内のI/O変換部12(リモートI/O)のリレーを駆動させ赤外線リモコン送信機11に対する出力を行わせる。この出力方法はリレーに限定されず、ICなどの半導体スイッチでもよい。
表1の場合、リモコン送信サーバ13が動作指令データ”Cafe_sitdown_right”を受信すると、赤外線リモコンのチャンネル1のON/OFFを2回行うようにリレーを駆動させる。リレーを用いる場合は、その機械的な応答を鑑みて150[ms]程度の間隔を空けて動作させることが望ましい。リレーのON/OFFにより、赤外線LED7は赤外線リモコンのボタンが押された場合と同様に発光する。赤外線LED7の発光方法としてはPWM方式などが知られている。なお、赤外線リモコンの仕様や構造は一般のテレビなどで用いられるものと同様でよい。
A flow of transmission to the robot 1 will be described along the above example.
First, the remote control transmission server 13 receives operation command data “Cafe_sitdown_right” from the seating detection client 15. For this client-server communication, for example, socket communication may be used. The remote control transmission server 13 drives the relay of the I / O conversion unit 12 (remote I / O) in the communication unit 4 based on the code table of Table 1 to output to the infrared remote control transmitter 11. This output method is not limited to a relay, and may be a semiconductor switch such as an IC.
In the case of Table 1, when the remote control transmission server 13 receives the operation command data “Cafe_sitdown_right”, the relay is driven so that the channel 1 of the infrared remote controller is turned ON / OFF twice. When a relay is used, it is desirable to operate with an interval of about 150 [ms] in view of its mechanical response. When the relay is turned ON / OFF, the infrared LED 7 emits light in the same manner as when a button on the infrared remote controller is pressed. As a light emitting method of the infrared LED 7, a PWM method or the like is known. Note that the specifications and structure of the infrared remote controller may be the same as those used in general televisions.

次に、受信側であるロボット1内のシステムについて説明する。
ロボット1は通信部2と制御部23、移動部21、そしてカメラ3を備える。通信部2は、赤外線受光部22、赤外線リモコン受信機17、I/O変換部18を備える。赤外線受光部22は赤外線LED7によるロボット1へのチャンネル送信を捉える。赤外線リモコン受信機17にて受信された信号は、I/O変換部18内のリレーまたは半導体スイッチなどを介して、デジタル信号のON/OFF情報として制御部23へ送られる。
制御部23は、環境装置24側の制御部25と同様にクライアント・サーバシステムの形態で構成されている。制御部23では、リモコン受信クライアント19が起動しており、通信部2内のI/O変換部18からのデジタル入力の変化を監視する。監視のポーリング周期は、10[ms]程度にすることが望ましい。リモコン受信クライアント19は、前回ポーリング時と異なるチャンネルを検出すると、そのチャンネルに対応した動作指令データをコマンドサーバ20に送る。リモコン受信クライアント19は、チャンネルと動作指令データの対応づけを行うためにリモコン送信サーバ13と同一の表1を持っている。
コマンドサーバ20では、動作指令データに応じて移動部21によってロボット1を移動させたり、アーム制御部(図示せず)によってロボット1のアームを動作させたりする。
Next, a system in the robot 1 on the receiving side will be described.
The robot 1 includes a communication unit 2, a control unit 23, a moving unit 21, and a camera 3. The communication unit 2 includes an infrared light receiving unit 22, an infrared remote control receiver 17, and an I / O conversion unit 18. The infrared light receiving unit 22 captures channel transmission to the robot 1 by the infrared LED 7. The signal received by the infrared remote control receiver 17 is sent to the control unit 23 as ON / OFF information of a digital signal via a relay or a semiconductor switch in the I / O conversion unit 18.
The control unit 23 is configured in the form of a client / server system in the same manner as the control unit 25 on the environment device 24 side. In the control unit 23, the remote control reception client 19 is activated and monitors a change in digital input from the I / O conversion unit 18 in the communication unit 2. The monitoring polling cycle is preferably about 10 [ms]. When the remote control receiving client 19 detects a channel different from the previous polling time, it sends operation command data corresponding to that channel to the command server 20. The remote control reception client 19 has the same table 1 as the remote control transmission server 13 in order to associate the channel with the operation command data.
In the command server 20, the robot 1 is moved by the moving unit 21 according to the operation command data, or the arm of the robot 1 is operated by the arm control unit (not shown).

本発明で特徴的なのは、図1に示したようにロボット1がカメラ3を内蔵している点である。カメラ3によって周辺環境に設置された赤外線LED7の設置場所をとらえ、ロボット1の自己位置同定に利用することができる。赤外線LED7の光は可視領域外であるため、人間が目視で明滅を確認することはできない。しかし、ビデオカメラやデジタルカメラに利用されているCCDセンサは可視光よりも広い範囲の波長を感知することが可能で、撮影された画像には赤外線も映し出される。本発明は、この事実に着目した。   A feature of the present invention is that the robot 1 incorporates a camera 3 as shown in FIG. The installation location of the infrared LED 7 installed in the surrounding environment by the camera 3 can be grasped and used for the self-position identification of the robot 1. Since the light from the infrared LED 7 is outside the visible region, humans cannot visually confirm blinking. However, CCD sensors used in video cameras and digital cameras can detect a wider range of wavelengths than visible light, and infrared rays are also reflected in the captured image. The present invention has focused on this fact.

移動手段を有するロボットでは、車輪の回転量を検知するエンコーダ等のセンサを用いてロボットの移動量を推定する、デッドレコニングと呼ばれる手法が用いられる。
しかし、デッドレコニングには車輪の滑りなどにより、誤差が累積するという欠点があることが知られている。そこで、従来は環境側に蛍光テープなどのいわゆるランドマークを設置し、デッドレコニングの累積誤差を補正する方法をとっていた。
In a robot having a moving means, a technique called dead reckoning is used in which the amount of movement of the robot is estimated using a sensor such as an encoder that detects the amount of wheel rotation.
However, it is known that dead reckoning has a drawback that errors are accumulated due to slipping of wheels and the like. Therefore, conventionally, a so-called landmark such as a fluorescent tape is provided on the environment side, and a method of correcting a cumulative error of dead reckoning has been adopted.

本発明は、ランドマークを設置することなく、周辺環境に設置された動作指令データ通信用の赤外線LED7をランドマークとしても利用する。赤外波長を用いるため、照明機器など周囲の外乱光の影響を抑えることができる。また、赤外線LED7は長さが10[mm]程度、径が5[mm]程度と小型のものでよいため、設置場所についても制約も受けずに済む。
このように、周辺環境に設置した赤外線LEDをカメラの画像データによって認識することで、ランドマークを設置することなく移動により生じるデッドレコニングの累積誤差を補正することができる。
The present invention uses the infrared LED 7 for operation command data communication installed in the surrounding environment as a landmark without installing a landmark. Since infrared wavelengths are used, the influence of ambient disturbance light such as lighting equipment can be suppressed. Further, since the infrared LED 7 may be a small one having a length of about 10 [mm] and a diameter of about 5 [mm], the installation location is not limited.
Thus, by recognizing the infrared LED installed in the surrounding environment from the image data of the camera, it is possible to correct the accumulated error of dead reckoning caused by the movement without installing the landmark.

以上の機能を実現するために、ロボット1に対し赤外線LED7によって動作指令データ(チャンネル)を送信した際に、その光がカメラ3でとらえた画像内のどこにあるべきか、その座標データを環境装置24に予め保持させておく。具体的には、表1のコード表に座標データを追加した表2のコード表を用いて、動作指令データおよび座標データに対応したチャンネルを送信する。
ここで、通信時間を短くするために、受信側であるロボット1にて表2のコード表を保持し、環境装置24は表1に従って動作指令データに対応するチャンネル送信のみを行うようにしてもよい。こうすると自己位置補正のための座標データを通信データから分離できるため、通信データ量を少なく抑えられ、結果として通信障害のおそれを少なくすると共に通信遅延を小さくすることができる。
In order to realize the above functions, when the operation command data (channel) is transmitted to the robot 1 by the infrared LED 7, the coordinate data is used to indicate where the light should be in the image captured by the camera 3. 24 in advance. Specifically, the channel corresponding to the operation command data and the coordinate data is transmitted using the code table of Table 2 in which the coordinate data is added to the code table of Table 1.
Here, in order to shorten the communication time, the robot 1 on the receiving side holds the code table of Table 2, and the environmental device 24 may perform only channel transmission corresponding to the operation command data according to Table 1. Good. In this way, the coordinate data for self-position correction can be separated from the communication data, so that the amount of communication data can be reduced, and as a result, the possibility of communication failure can be reduced and the communication delay can be reduced.

ロボット1側で表2に示すコード表を保持している場合において、赤外線LED7の光に基づいてロボット1が自己位置を補正する具体的な方法を図3、図4を用いて説明する。
図3はカメラ3によって赤外線LED7の光を捉えた画像と、その座標系を示す図である。赤外線通信によりロボット1が環境装置側24から動作指令データを受信すると、その動作指令データに対応する座標P(xp, yp) (図3の33)のデータを表2に示すコード表から引き出す。
一方、実際にはカメラ画像31上で、PLED(xpl, ypl)の位置(図3の32)に赤外線LEDの光を観測したとする。赤外線LEDの座標値は、カメラ画像に対し画像処理を行うことで求める。
ロボット1は、座標値32と座標値33の差分から自己位置の補正量を求めるが、カメラ画像31上の差分と実際に移動する補正量(Δx, Δy, Δθ)とは次の式(1)により関係づけられる。
A specific method in which the robot 1 corrects its own position based on the light from the infrared LED 7 when the code table shown in Table 2 is held on the robot 1 side will be described with reference to FIGS.
FIG. 3 is a diagram showing an image obtained by capturing the light of the infrared LED 7 by the camera 3 and its coordinate system. When the robot 1 receives the operation command data from the environmental equipment side 24 by infrared communication, the data of the coordinates P (x p , y p ) (33 in FIG. 3) corresponding to the operation command data is obtained from the code table shown in Table 2. Pull out.
On the other hand, it is assumed that the light of the infrared LED is actually observed on the camera image 31 at the position of P LED (x pl , y pl ) (32 in FIG. 3). The coordinate value of the infrared LED is obtained by performing image processing on the camera image.
The robot 1 obtains the correction amount of the self position from the difference between the coordinate value 32 and the coordinate value 33. The difference on the camera image 31 and the correction amount (Δx, Δy, Δθ) actually moved are expressed by the following equation (1). ).

式(1)における移動量(Δx, Δy, Δθ)は、図4(a)、(b)に示すとおりである。図4(a)は、本発明のシステムを側面から見た図であり、図4(b)は上から見た図である。式(1)における変換マトリックス{Cij}(i=1,2,3、 j=1,2)は、予めロボット1とカメラ画像31との対応をキャリブレーションしておくことで得られる。 The movement amounts (Δx, Δy, Δθ) in Equation (1) are as shown in FIGS. 4 (a) and 4 (b). FIG. 4A is a view of the system of the present invention as seen from the side, and FIG. 4B is a view as seen from above. The transformation matrix {C ij } (i = 1, 2, 3, j = 1, 2) in Expression (1) is obtained by calibrating the correspondence between the robot 1 and the camera image 31 in advance.

図5、図6は本発明の第2実施例の構成を示す図である。
ロボット1上の赤外線受光部22および周辺環境の赤外線LED7は、図5に示すようにそれぞれ複数個備えてもよい。赤外線受光部22の各受光結果の論理和をとることにより、ロボット1にて赤外線LED7からの赤外線を確実に受光することができる。複数個の赤外線LED7および赤外線受光部22をそれぞれ分散して配置すれば、上記のように通信障害を回避し、ロボット1は確実に受信することができる。
しかしながらコストを鑑みれば、ロボット1に赤外線受光部22を上面から見てその向きが120[°]ずつ異なるように3つ配置し、一方でロボット1の周辺環境には赤外線LED7を同じく上面から見てその向きが120[°]ずつ異なるように3つ配置すれば十分である。
図6は、図5のロボットシステムの概略を示すブロック図である。
図5では、赤外線リモコン送信機11に3つの赤外線LED7が接続されている。さらに赤外線リモコン受信機17も赤外線受光部22を3つ備える。
5 and 6 are diagrams showing the configuration of the second embodiment of the present invention.
A plurality of infrared light receivers 22 on the robot 1 and infrared LEDs 7 in the surrounding environment may be provided as shown in FIG. By taking the logical sum of the light reception results of the infrared light receiving unit 22, the robot 1 can reliably receive the infrared light from the infrared LED 7. If the plurality of infrared LEDs 7 and the infrared light receiving units 22 are arranged in a distributed manner, the communication failure can be avoided as described above, and the robot 1 can reliably receive.
However, considering the cost, the robot 1 is arranged with three infrared light receiving portions 22 so that the directions of the infrared light receiving portions 22 are different from each other by 120 [°], while the infrared LED 7 is also seen from the upper surface in the surrounding environment of the robot 1. It is sufficient to arrange three so that their orientations differ by 120 [°].
FIG. 6 is a block diagram showing an outline of the robot system of FIG.
In FIG. 5, three infrared LEDs 7 are connected to the infrared remote control transmitter 11. Further, the infrared remote control receiver 17 also includes three infrared light receivers 22.

このように、複数方向からの赤外線光のON/OFF情報の論理和をとることにより、1つの赤外線受光部にて受信できなくても別の赤外線受光部にて受信できればよいため、環境内におけるロボット1の通信可能位置や姿勢を拡大することができる。
なお、電圧降下の影響を鑑みれば、赤外線リモコン送信機11〜赤外線LED7間のケーブル長は3[m]未満であることが望ましい。また、赤外線リモコン受信機17〜赤外線受光部22間のケーブル長は、同様に電圧降下の影響を考慮すると0.3[m]未満であることが望ましい。
In this way, by taking the logical sum of the ON / OFF information of infrared light from multiple directions, it is sufficient if it can be received by another infrared light receiving unit even if it cannot be received by one infrared light receiving unit. The communicable position and posture of the robot 1 can be expanded.
In view of the influence of the voltage drop, the cable length between the infrared remote control transmitter 11 to the infrared LED 7 is preferably less than 3 [m]. Similarly, the cable length between the infrared remote control receiver 17 and the infrared light receiving unit 22 is preferably less than 0.3 [m] considering the influence of the voltage drop.

図7、図8は本発明の第3実施例の構成を示す図である。図8は、図7のロボット1または41の概略を示すブロック図である。
本実施例は、図8に示すように赤外線受光部22に加えて赤外線LED7と赤外リモコン送信機11を備えつけたロボット1と、同一構成を有する他のロボット41との間で、一方のロボットの赤外線LED7の発光を他方のカメラ3で捉えることにより一方のロボットを基準として自己位置補正を行うようにしたものである。この場合、どちらのロボットの方が環境に対する自己位置補正を行った後の累積移動量が少ないかを判定し、累積移動量が少ない方のロボットを基準とするのが望ましい。どちらのロボットを基準とするかの判定には、各々のロボットにて、その累積移動量を記録するようにして、所定の閾値と累積移動量との間で大小を比較してもよいし、互いの累積移動量を比較してもよい。
また、自己位置補正のデータとしては、互いのロボット間の相対距離のみならず、絶対座標値を前述のコード表に格納してもよい。その場合には、いずれかのロボットが、環境に対する自己位置補正を行った際に、その場所に対応する絶対座標値を保持しておいてから移動する。自己位置補正後の移動距離が少ない方のロボットが保持する絶対座標値にその移動量を加算したものをコード表に格納し、参照する側のロボットに参照される側の絶対座標値を送信する。
7 and 8 are views showing the configuration of the third embodiment of the present invention. FIG. 8 is a block diagram showing an outline of the robot 1 or 41 of FIG.
In this embodiment, as shown in FIG. 8, in addition to the infrared light receiving unit 22, the robot 1 provided with the infrared LED 7 and the infrared remote control transmitter 11 and the other robot 41 having the same configuration, one robot The self-position correction is performed on the basis of one robot by capturing the light emitted from the infrared LED 7 with the other camera 3. In this case, it is desirable to determine which robot has a smaller cumulative movement amount after performing self-position correction with respect to the environment, and use the robot with the smaller cumulative movement amount as a reference. In order to determine which robot is used as a reference, each robot may record the accumulated movement amount, and the magnitude may be compared between a predetermined threshold and the accumulated movement amount. You may compare mutual movement amount.
As self-position correction data, not only the relative distance between the robots but also the absolute coordinate values may be stored in the above code table. In that case, when any of the robots performs self-position correction with respect to the environment, the robot moves after holding the absolute coordinate value corresponding to the location. The absolute coordinate value held by the robot with the shorter movement distance after self-position correction is added to the movement amount and stored in the code table, and the reference absolute coordinate value is sent to the referring robot. .

図9は、本発明の第3実施例における処理手順を示すフローチャートである。ステップS801〜S806は、フローの各ステップを示している。
ここで、各ロボットは互いに衝突を避けるため、定期的に赤外線LED7を発光させ、互いの存在を周辺に知らせるようにしている。まず、ロボット1が周辺環境に対し自己位置を補正する(ステップS801)。次にロボット1が移動して他のロボット41と近づき、互いの赤外線LED7の発光を捉えると(ステップS802)、最初に自己位置補正した位置からの移動距離lに応じて以降の処理が分岐する(ステップS803)。
すなわち、移動距離lが所定の閾値lh以上であれば(ステップS803にてNoの場合)、ロボット1はロボット41に対し赤外線LEDによる通信を行わない(ステップS805)。
移動距離lが所定の閾値lh未満であれば、ロボット1がロボット41に対して赤外線LEDを発光させ、ロボット41はその光をカメラで捉え、カメラ画像上における光の位置に基づいて自己位置を補正する(S806)。ここで、lおよびlhは共に正の実数とする。
FIG. 9 is a flowchart showing a processing procedure in the third embodiment of the present invention. Steps S801 to S806 show the steps of the flow.
Here, in order to avoid collision with each other, the robots regularly emit the infrared LED 7 so as to inform the surroundings of the presence of each other. First, the robot 1 corrects its own position with respect to the surrounding environment (step S801). Next, when the robot 1 moves to approach another robot 41 and captures the light emission of each infrared LED 7 (step S802), the subsequent processing branches depending on the movement distance l from the position where the self-position correction is first performed. (Step S803).
That is, if the movement distance l is equal to or greater than the predetermined threshold value l h (No in step S803), the robot 1 does not communicate with the robot 41 using the infrared LED (step S805).
If the movement distance l is less than the predetermined threshold l h , the robot 1 causes the robot 41 to emit an infrared LED, the robot 41 captures the light with the camera, and self-positions based on the position of the light on the camera image. Is corrected (S806). Here, both l and l h are positive real numbers.

ロボット1とロボット41の移動距離が共に所定の閾値lh以上であったり、lh未満であったりした場合は、互いの移動距離を赤外線LED7によってやり取りし、相手の移動距離よりも短かった方が基準となるようにする。 If the movement distances of the robot 1 and the robot 41 are both greater than or equal to the predetermined threshold value l h or less than l h , the movement distance of the robot 1 and the robot 41 is exchanged by the infrared LED 7 and is shorter than the movement distance of the opponent To be the standard.

ロボット間の相対距離・姿勢と、カメラ画像上での相手の赤外線LEDの位置との変換マトリックスをDとすると、ロボット1が自己位置を補正した直後は式(1)のマトリックスCをDに置き換えた式が成立する。
マトリックスDの要素は以下のようにして決める。ロボット1が環境に対し自己位置補正する位置でロボット41と対峙した場合の、ロボット41のカメラ画像におけるロボット1の赤外線LEDの位置をマトリックスC同様にキャリブレーションにより求める。ロボット1は、自身の補正後の移動量{Δx, Δy, Δθ}Tをロボット41に送信する。ロボット41がロボット1から移動量{Δx, Δy, Δθ}Tを受信すると、ロボット41は式(2)より観測されたLEDの画像上での位置を{Δxp, ΔypTだけ並進させる。並進させた元LEDの位置とロボット41が参照すべき点との差分をマトリックスDに反映させてロボット41の移動量を求め、位置補正を行う。
If the conversion matrix between the relative distance / attitude between the robots and the position of the counterpart infrared LED on the camera image is D, immediately after the robot 1 corrects its own position, the matrix C in equation (1) is replaced with D. The following formula holds.
The elements of the matrix D are determined as follows. The position of the infrared LED of the robot 1 in the camera image of the robot 41 when the robot 1 faces the robot 41 at a position where the robot 1 corrects its position relative to the environment is obtained by calibration as in the matrix C. The robot 1 transmits its corrected movement amount {Δx, Δy, Δθ} T to the robot 41. When the robot 41 receives the movement amount {Δx, Δy, Δθ} T from the robot 1, the robot 41 translates the position on the image of the LED observed from the equation (2) by {Δx p , Δy p } T. . The difference between the translated position of the original LED and the point to be referred to by the robot 41 is reflected in the matrix D, the amount of movement of the robot 41 is obtained, and the position is corrected.

このように、ロボット同士で通信を行うことで自己位置補正を行う機会が増え、動作精度を向上できる。 As described above, the robots communicate with each other to increase the chances of self-position correction, thereby improving the operation accuracy.

また、本発明の第4の実施例として、ロボット1が自己位置補正を行う際に環境側の赤外線LED7が発光しているか否かをカメラ3により確認し、もし発光が確認できなければ赤外線LED7の故障と判断したり、環境装置24内のI/O変換部12のリセット処理、再通信処理を施したりするようにしてもよい。   Further, as a fourth embodiment of the present invention, when the robot 1 performs self-position correction, it is confirmed by the camera 3 whether or not the environment-side infrared LED 7 emits light. It may be determined that a failure has occurred, or reset processing and re-communication processing of the I / O conversion unit 12 in the environmental device 24 may be performed.

図10は本発明の第4実施例における処理手順を示すフローチャートである。ステップS901〜S909は、フローの各ステップを示している。
図10に示すように、まず0以上の整数を格納する変数nに0に設定する(ステップS901)。ここでnは続いてカメラ3により画像を取得し(ステップS902)、赤外線LED7が発光しているかを判定する(ステップS903)。赤外線LED7の発光が確認できれば(ステップS903にてYesの場合)、自己位置補正の処理に移る。もし発光が確認できなければ(ステップS903にてNoの場合)、変数nをインクリメントし(ステップS904)、予め定められた回数N(N:自然数)と比較する(ステップS905)。
失敗がN回未満であれば、ロボット1の発話手段(図示せず)により「赤外線LEDの点灯が確認できません」などの発話を行ったり表示部に同様のメッセージを表示したりする(ステップS906)。
失敗がN回に達すれば(ステップS905にてNoの場合)、ロボット1の発話手段(図示せず)により「赤外線LEDが故障しています」などの這発話を行ったり表示部に同様のメッセージを表示したりする(ステップS909)。失敗の判定回数Nは3程度であることが望ましい。失敗がN回未満であれば、さらに環境装置24に再送要求を行う(ステップS907)。
再送要求を行うために、図7のようにロボットに赤外線LED7を設け、さらに環境装置側に赤外線受光部を設けて前述と同様に赤外線により通信を行う。もしくはロボットの再送要求の発話を、環境装置側が図示しない音声認識手段により検出することにより通信する。環境装置24では、再送要求を受信すると、I/O変換部12のリセット後、ロボット1に動作指令データを再送信する(ステップS908)。再送信後、再びカメラ3による画像取得処理に戻る(ステップS902)。
このように、環境側の赤外線LED7の状態を確認し、発光していない場合のエラー処理を行うため、通信性能を向上することができる。
FIG. 10 is a flowchart showing a processing procedure in the fourth embodiment of the present invention. Steps S901 to S909 indicate the steps of the flow.
As shown in FIG. 10, first, a variable n for storing an integer of 0 or more is set to 0 (step S901). Here, n acquires an image by the camera 3 (step S902), and determines whether the infrared LED 7 emits light (step S903). If light emission from the infrared LED 7 can be confirmed (Yes in step S903), the process proceeds to self-position correction processing. If light emission cannot be confirmed (No in step S903), the variable n is incremented (step S904) and compared with a predetermined number N (N: natural number) (step S905).
If the number of failures is less than N times, an utterance such as “cannot confirm that the infrared LED is turned on” is performed by the utterance means (not shown) of the robot 1 or a similar message is displayed on the display unit (step S906). .
If the number of failures reaches N times (No in step S905), the robot 1 speaks (not shown) using the utterance means (not shown) such as “infrared LED is broken” or similar message on the display Is displayed (step S909). The number of failure determinations N is preferably about 3. If the number of failures is less than N times, a retransmission request is further sent to the environmental device 24 (step S907).
In order to make a retransmission request, an infrared LED 7 is provided in the robot as shown in FIG. 7, and an infrared light receiving unit is further provided on the environment device side, and communication is performed by infrared rays as described above. Alternatively, the communication is performed by detecting the utterance of the retransmission request of the robot by the voice recognition means (not shown) on the environmental device side. When receiving the retransmission request, the environmental device 24 retransmits the operation command data to the robot 1 after resetting the I / O conversion unit 12 (step S908). After the retransmission, the process returns to the image acquisition process by the camera 3 again (step S902).
As described above, since the state of the infrared LED 7 on the environment side is confirmed and error processing is performed when light is not emitted, communication performance can be improved.

本発明のロボットシステムは、赤外線などの手段により通信できるロボットシステムに広く適用できる。   The robot system of the present invention can be widely applied to robot systems that can communicate by means such as infrared rays.

本発明のロボットシステムの第1の実施例を示す概要図Schematic diagram showing a first embodiment of the robot system of the present invention 図1のロボットシステムのブロック図Block diagram of the robot system of FIG. ロボットに設けられたカメラによって赤外線LEDを捉えた画像を示す図The figure which shows the image which caught infrared LED with the camera which is installed in the robot 図3のカメラ画像をもとにしたロボットの自己位置補正を説明する図The figure explaining the self-position correction of the robot based on the camera image of FIG. 本発明のロボットシステムの第2の実施例を示す概要図Schematic diagram showing a second embodiment of the robot system of the present invention 図5のロボットシステムのブロック図Block diagram of the robot system of FIG. 本発明の第3の実施例を示す図The figure which shows the 3rd Example of this invention 図7のロボットシステムのブロック図Block diagram of the robot system of FIG. 本発明の第3の実施例の処理手順を示すフローチャートThe flowchart which shows the process sequence of 3rd Example of this invention. 本発明の第4の実施例の処理手順を示すフローチャートThe flowchart which shows the process sequence of the 4th Example of this invention. 従来のロボットシステムの概略を示す図Diagram showing the outline of a conventional robot system 従来のロボットシステムの概略を示す図Diagram showing the outline of a conventional robot system

符号の説明Explanation of symbols

1 ロボット
2 通信部
3 カメラ
4 通信部
5 環境PC
6 ネットワークハブ
7 赤外線LED
8 人
9 飲食物
11 赤外線リモコン送信機
12 I/O変換部
13 リモコン送信サーバ
14 リモコン送信クライアント
15 着席検知クライアント
16 音声認識クライアント
17 赤外線リモコン受信機
18 I/O変換部
19 リモコン受信クライアント
20 コマンドサーバ
21 移動部
22 赤外線受光部
23 制御部
24 環境装置
25 制御部
31 カメラ画像
32 観測された赤外線LED光の座標
32 本来あるべき赤外線LED光の座標
41 他のロボット
105、106 ロボット
212 ロボット
214 赤外線タグ
216 周囲状況観測装置
218 人間用観測装置
220 ぬいぐるみ型観測装置
1 Robot 2 Communication unit 3 Camera 4 Communication unit 5 Environmental PC
6 Network hub 7 Infrared LED
8 people 9 food and drink 11 infrared remote control transmitter 12 I / O conversion unit 13 remote control transmission server 14 remote control transmission client 15 seating detection client 16 voice recognition client 17 infrared remote control receiver 18 I / O conversion unit 19 remote control reception client 20 command server 21 Moving unit 22 Infrared light receiving unit 23 Control unit 24 Environmental device 25 Control unit 31 Camera image 32 Observed infrared LED light coordinates 32 Original infrared LED light coordinates 41 Other robots 105 and 106 Robot 212 Robot 214 Infrared tag 216 Ambient condition observation device 218 Human observation device 220 Stuffed animal observation device

Claims (5)

外部との通信を行う第1の通信部と、移動部と、前記第1の通信部と前記移動部とを制御する第1の制御部とを備えたロボットと、
前記ロボットの動作環境内に設置され、前記第1の通信部と通信可能な第2の通信部と、前記第2の通信部を制御する第2の制御部とを備えた環境装置とを含み、
前記ロボットは、前記第2の通信部を介した前記環境装置からの動作指令に従って前記移動部により前記動作環境を移動し所定の動作を行うロボットシステムであって、
前記第1および第2の通信部は、光信号の点滅により情報を授受する光通信手段を備え、
前記ロボットは、画像認識部を備え、前記画像認識部にて前記光信号の点灯位置を認識することにより前記動作環境における自己の位置を補正することを特徴とするロボットシステム。
A robot including a first communication unit that communicates with the outside, a moving unit, and a first control unit that controls the first communication unit and the moving unit;
An environment device including a second communication unit that is installed in an operating environment of the robot and that can communicate with the first communication unit; and a second control unit that controls the second communication unit. ,
The robot is a robot system that moves the operating environment by the moving unit according to an operation command from the environmental device via the second communication unit and performs a predetermined operation,
The first and second communication units include optical communication means for transmitting and receiving information by blinking an optical signal,
The robot system includes an image recognition unit, and corrects its own position in the operation environment by recognizing a lighting position of the optical signal by the image recognition unit.
前記ロボットは、前記動作指令と前記第2の通信部が送信する信号との対応を示すコード表を前記第1の制御部に備え、前記コード表の内容と実際に前記第1の通信部にて受信した信号との比較により前記動作環境における自己の位置の補正することを特徴とする請求項1に記載のロボットシステム。   The robot includes a code table indicating correspondence between the operation command and a signal transmitted from the second communication unit in the first control unit, and the contents of the code table and the first communication unit are actually in the first communication unit. The robot system according to claim 1, wherein the position of the robot in the operating environment is corrected by comparison with the received signal. 前記ロボットは、前記第1の通信部として発光手段あるいは受光手段を複数個有し、前記受光手段による検出結果の論理和をとることを特徴とする請求項1に記載のロボットシステム。   The robot system according to claim 1, wherein the robot has a plurality of light emitting means or light receiving means as the first communication unit, and takes a logical sum of detection results by the light receiving means. 前記環境装置は、前記ロボットに前記第2の通信部と前記第2の制御部の機能を加えた別のロボットであることを特徴とする請求項1に記載のロボットシステム。   The robot system according to claim 1, wherein the environmental device is another robot in which the functions of the second communication unit and the second control unit are added to the robot. 前記第1の制御部は、前記画像認識部で撮像した画像により前記第2の通信部の発光手段の点灯を認識して、前記第2の通信部が正常に作動していることを確認することを特徴とする請求項1に記載のロボットシステム。   The first control unit recognizes the lighting of the light emitting means of the second communication unit from the image captured by the image recognition unit, and confirms that the second communication unit is operating normally. The robot system according to claim 1.
JP2006216777A 2006-08-09 2006-08-09 Robot system Pending JP2008036799A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006216777A JP2008036799A (en) 2006-08-09 2006-08-09 Robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006216777A JP2008036799A (en) 2006-08-09 2006-08-09 Robot system

Publications (1)

Publication Number Publication Date
JP2008036799A true JP2008036799A (en) 2008-02-21

Family

ID=39172400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006216777A Pending JP2008036799A (en) 2006-08-09 2006-08-09 Robot system

Country Status (1)

Country Link
JP (1) JP2008036799A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011245577A (en) * 2010-05-25 2011-12-08 Honda Motor Co Ltd Robot system for waiter service
JP2014233531A (en) * 2013-06-04 2014-12-15 シャープ株式会社 Self-propelled electronic equipment
WO2018174285A1 (en) * 2017-03-24 2018-09-27 株式会社 ゼンショーホールディングス Conversation control device and conversation system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011245577A (en) * 2010-05-25 2011-12-08 Honda Motor Co Ltd Robot system for waiter service
JP2014233531A (en) * 2013-06-04 2014-12-15 シャープ株式会社 Self-propelled electronic equipment
WO2018174285A1 (en) * 2017-03-24 2018-09-27 株式会社 ゼンショーホールディングス Conversation control device and conversation system

Similar Documents

Publication Publication Date Title
EP3577530B1 (en) Systems and methods for assisting a robotic apparatus
US20150123903A1 (en) Apparatus and method for recognizing motion
US20200171667A1 (en) Vision-based robot control system
WO2012121969A4 (en) Visual pairing in an interactive display system
WO2010051423A1 (en) Method of cleaning a surface using an automatic cleaning device
JP2007160473A (en) Interactive object identifying method in robot and robot
KR102560462B1 (en) Moving robot
EP2575105B1 (en) Information acquisition device, information acquisition method, program, and information acquisition system
US20190197845A1 (en) Sensors for detecting and monitoring user interaction with a device or product and systems for analyzing sensor data
US20100030379A1 (en) Method of controlling an autonomous device
JP2008036799A (en) Robot system
JP2007268696A (en) Interactive robot system
CN104064022A (en) Remote control method and system
US11953913B2 (en) Event identifying method of smart detection system
CN111949224A (en) Systems, methods, and non-transitory computer-readable media
US20210178594A1 (en) Robot, Action Detection Server, and Action Detection System
TW200924926A (en) Autonomous robot and position system and method thereof
JP4790866B1 (en) Remote control system
JP6710200B2 (en) User interface system based on pointing device
JP2006258717A (en) Distance-measuring system
JP6586617B2 (en) Speech recognition apparatus, method, and computer program
US20170031586A1 (en) Terminal device, system, method of information presentation, and program
JP2013121175A (en) Wireless receiver, control method of wireless receiver, wireless reception program and recording medium storing wireless reception program
Debono et al. An RGB-D based framework for ambient assistive living applications
KR20210056577A (en) Obstacle detection apparatus of autonomous driving robot