JP3940687B2 - Robot system and robot - Google Patents

Robot system and robot Download PDF

Info

Publication number
JP3940687B2
JP3940687B2 JP2003070155A JP2003070155A JP3940687B2 JP 3940687 B2 JP3940687 B2 JP 3940687B2 JP 2003070155 A JP2003070155 A JP 2003070155A JP 2003070155 A JP2003070155 A JP 2003070155A JP 3940687 B2 JP3940687 B2 JP 3940687B2
Authority
JP
Japan
Prior art keywords
robot
data
position data
image
comparison result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003070155A
Other languages
Japanese (ja)
Other versions
JP2004280404A (en
Inventor
崎 文 夫 尾
本 英 昭 橋
藤 広 和 佐
明 準 治 大
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2003070155A priority Critical patent/JP3940687B2/en
Publication of JP2004280404A publication Critical patent/JP2004280404A/en
Application granted granted Critical
Publication of JP3940687B2 publication Critical patent/JP3940687B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明はロボットシステムおよびロボットに関する。
【0002】
【従来の技術】
近年、様々な環境において作業を行うために自律的なロボットシステムが用いられている。このようなロボットシステムは、工場のように整備された特殊な環境のほか、より一般的な環境でも用いられることが望まれている。しかし、従来では、様々な構造を有する一般的な環境においてロボットが自律的に作業を行うことは困難であった。
【0003】
ロボットが自律的に作業を行う従来技術として、壁やオブジェクトの環境にIDC(Intelligent Data Carrier)やタグを配したシステムが存在する(非特許文献1参照)。
【0004】
【非特許文献1】
倉橋等による“知的データキャリアを用いた自律ロボット群と環境の情報交換(Communication between Autonomous Robots and Environments by Intelligent Data Carriers)”日本ロボット学会誌 Vol.17 NO.5(pp633〜636)、1999
【0005】
【発明が解決しようとする課題】
非特許文献1に記載されたIDCはCPUおよびメモリを有する。しかし、IDCは、これを配した壁やオブジェクト自身の情報を積極的にロボットへ提供するものではなかった。即ち、従来から作業環境は受動的または消極的なものであった。
【0006】
そこで、本発明の目的は、ロボットの作業環境内にある様々な機器や調度品などのオブジェクトが、能動的にデータをロボットへ供給し、それによりロボットの作業を支援することができるロボットシステムを提供することである。
【0007】
【課題を解決するための手段】
本発明に従った実施の形態によるロボットシステムは、ロボットおよび該ロボットと通信可能なオブジェクトを含むロボットシステムにおいて、
前記オブジェクトは、該オブジェクト自体の位置を示す第1の位置データ、および、該オブジェクト自体の画像を示す第1の画像データを格納する第1の記憶部と、前記第1の位置データを要求する要求信号を受信しそれに応じて前記第1の位置データおよび前記第1の画像データを送信する第1のインタフェースとを備え、
前記ロボットは、前記ロボットの周囲の環境を撮像するカメラと、前記オブジェクトおよび前記ロボットが存在し得る範囲の地図データ並びに該ロボット自体の位置を示す第2の位置データを格納する第2の記憶部と、前記要求信号を送信しまたは前記第1の位置データおよび前記第1の画像データを受信する第2のインタフェースと、前記第1の位置データと前記第2の位置データとを比較して位置比較結果を出力し、前記カメラが撮影した前記第2の画像データと前記第1の画像データとを比較して画像比較結果を出力する比較器と、前記位置比較結果、前記画像比較結果および前記地図データに基づいて該ロボットを移動させる移動機構とを備え
前記第1の位置データと前記第2の位置データとの距離が所定値以下になったときに、前記カメラは前記オブジェクトの画像を撮影して前記第2の画像データを生成し、前記画像比較結果に基づいて前記オブジェクトを特定することを特徴とする。
【0010】
【発明の実施の形態】
以下、図面を参照し、本発明による実施の形態を説明する。これらの実施の形態は本発明を限定するものではない。
【0011】
本発明に係る実施の形態に従ったロボットシステムにおいて、ロボットおよびオブジェクトの両方がそれぞれの位置データを有し、双方向に通信を行う。これによりオブジェクトは、能動的にデータをロボットに提供しロボットを支援することができる。
【0012】
図1は、本発明に係る第1の実施の形態に従ったロボットシステム100の概念図である。ロボットシステム100はロボット110およびオブジェクト120、130および140を含む。ロボット110およびオブジェクト120、130および140は、互いに無線または有線によるネットワーク150により接続されている。
【0013】
本実施の形態において、オブジェクト120は冷蔵庫であり、オブジェクト130はたんすであり、オブジェクト140は電子レンジである。オブジェクトは、これらに限られず、他の家具や事務機器であってもよい。オブジェクト120、130および140は、いずれもロボット110が移動して作業を行うことができる作業環境の範囲(以下、作業範囲という)内に配置されている。オブジェクト120、130、140は、それぞれメモリ122、132、142、インタフェース124、134、144およびCPU126、136、146を備えている。このように、オブジェクトは、作業範囲内に設けられ、ロボットと通信可能な物体であり、例えば、メモリ、インタフェースおよびCPUを備えた家具、事務用品などである。
【0014】
メモリ122はオブジェクト120の位置を示す位置データおよびその外観を示す画像データを格納し、メモリ132はオブジェクト130の位置を示す位置データおよびその外観を示す画像データを格納し、メモリ142はオブジェクト140の位置を示す位置データおよびその外観を示す画像データを格納する。
【0015】
CPU126、136、146はそれぞれオブジェクト120、130、140の各構成要素を制御する。
【0016】
ロボット110は作業範囲内において自律的に移動および作業を行うように構成されている。ロボット110はメモリ112、インタフェース114、カメラ116、CPU117、比較器118および移動機構119を備えている。メモリ112は、オブジェクト120、130、140およびロボット110が存在し得る作業範囲の地図データと、ロボット110の位置を示す位置データとを格納する。カメラ116は、ロボット110の周囲の環境を撮像することができる。比較器116は、位置データを比較し、並びに、画像データを比較することができる。CPU117は、ロボット110の各構成要素を制御する。
【0017】
インタフェース114、124、134および144は、ネットワーク150を介して相互に通信可能に接続されている。
【0018】
図2は、ロボットシステム100の動作を示すフロー図である。ロボット110は、ユーザから「冷蔵庫からビールを持って来い」という命令を受ける(S10)。このとき、例えば、ユーザは、ロボット110に配備されたマイクに向かって音声で入力してもよい。あるいは、ユーザは、携帯電話機からネットワーク150およびインタフェース114を介してロボット110へ命令を送ってもよい。
【0019】
ロボット110は、最初、冷蔵庫120の位置や画像を有していない。よって、ロボット110は、この命令を認識すると、ネットワーク150に接続された総てのオブジェクトに対して冷蔵庫の識別子および要求信号を送信する(S20)。この要求信号は、冷蔵庫120の位置データを要求する信号である。
【0020】
冷蔵庫120は、ロボット110からの識別子を認識して要求信号を受信し、これに応答してメモリ122に格納された位置データを送信する(S30)。この位置データは、ネットワーク150を介してロボット110へ送信される。
【0021】
ロボット110は、冷蔵庫120の位置データを受信し、これをメモリ120へ格納する。比較器118が冷蔵庫120の位置データとロボット110自身の位置データとを比較し、ロボット110から冷蔵庫120までの経路を決定する(S40)。このとき、比較器118は、作業範囲の地図データ上においてこれらの位置データを比較し、ロボット110から冷蔵庫120までの総ての経路を検索する。さらに、比較器118は、この検索結果から適切な経路を選択する。例えば、比較器118は最短経路を選択する。比較器118は、最も容易に通過できる経路、または、最も短時間で冷蔵庫120へ到達できる経路を選択してもよい。適切な経路を選択する際には、CPU117を用いて計算を行う。このようにして、ロボット110は適切な経路を選択する。尚、ロボット110が適切な経路を選択するために、地図データには作業範囲内の環境データが予め入力されている。環境データとは、例えば、ロボット110が通過できないような狭い通路やロボット110が通過するのに時間がかかる階段などに関するデータである。
【0022】
比較器118は、比較器118により選択された経路を位置比較結果として移動機構119へ出力する(S50)。移動機構119は、この位置比較結果に沿ってロボット110を移動させる(S60)。
【0023】
ロボット110は、冷蔵庫120から所定の距離まで接近すると、カメラ116によってロボット110の周囲の環境を撮像する(S70)。ロボット110と冷蔵庫120との距離は、検出用信号を用いて測定すればよい。検出用信号は、ロボット110の作業環境内で伝播され得る信号であり、例えば、電磁波または音響波などである。この場合、冷蔵庫120には検出用信号を発する信号発生器(図示せず)が設けられ、ロボット110には検出用信号を検出する信号検出器(図示せず)が設けられる。検出用信号は、ネットワーク150を介することなく、冷蔵庫120からロボット110へ直接発信される。ロボット110は、検出用信号の検出によって冷蔵庫120が存在する位置およびその方向を認識することができる。
【0024】
次に、ロボット110は冷蔵庫120へ冷蔵庫120の画像データを要求する要求信号を送信する(S80)。冷蔵庫120は、要求信号を受信し、これに応答してメモリ122に格納された画像データをロボット110へ送信する(S90)。ロボット110は、この画像データを受信し、これをメモリ120へ格納する。冷蔵庫120が送信する画像データは複数であることが好ましい。例えば、冷蔵庫120を様々な角度から撮影した画像データ、冷蔵庫120の扉を閉じた状態および開いた状態の画像データ等が送信される。
【0025】
比較器118は、冷蔵庫120から送信された画像データとカメラ116が撮影した画像データとを比較し、マッチング処理を行う(S100)。冷蔵庫120を様々な角度から撮影した画像データが存在する場合には、これらの各画像データとカメラ116が撮影した画像データとを比較する。これにより、カメラ116により撮影されたオブジェクトが冷蔵庫120であるか否かの判断が容易になる。カメラ116により撮影されたオブジェクトが冷蔵庫120と同一であると判断したときには、同一性を示す信号を画像比較結果として出力する。一方で、比較器118は、これらが異なると認識したときには、非同一性を示す信号を画像比較結果として出力する。尚、このマッチング処理によって、ロボット110と冷蔵庫120との距離を計算してもよい。
【0026】
カメラ116により撮影されたオブジェクトが冷蔵庫120と同一である場合には、ロボット110は、冷蔵庫120に対してさらに要求信号を送信する(S110)。
【0027】
冷蔵庫120のメモリ122は、冷蔵庫120の特性を示す特性データをさらに格納している。特性データとは、例えば、冷蔵庫120の形状、大きさ、取っ手の位置、取っ手の機構、内部に貯蔵されている物などのオブジェクトの特性を示すデータである。冷蔵庫120は、要求信号に応答してこの特性データをロボット110へ送信する(S120)。
【0028】
ロボット110は、カメラ116で冷蔵庫120を撮像しつつ、カメラ116からの画像データ、冷蔵庫120から受信した画像データおよび特性データに基づいて、冷蔵庫120の扉を開き、その中からビールを取り出す(S130)。
【0029】
さらに、ロボット110は、冷蔵庫120までの経路を逆に戻り、ユーザへビールを持っていく(S140)。
【0030】
一方で、カメラ116により撮影されたオブジェクトが冷蔵庫120と同一でないと判断した場合には、ステップ20へ戻る。
【0031】
このように、本実施の形態によれば、ロボット110は、オブジェクト120から140と双方向通信を行いながら作業を行う。これにより、ロボットの作業環境内にあるオブジェクトが能動的にデータをロボットへ供給することができるので、ロボットは正確かつ容易に移動し作業を遂行することができる。
【0032】
本実施の形態によれば、ロボット110は、位置比較結果および画像比較結果という複数の比較結果に基づいてオブジェクトを判断するのでオブジェクトを誤認することが少ない。
【0033】
本実施の形態において、ロボット110は要求信号を1回だけ送信してもよい。この場合、要求信号を受信した冷蔵庫120は位置データ、画像データおよび特性データを同時にロボット110へ送信する。
【0034】
図3は、本発明に係る第2の実施の形態に従ったロボットシステム200の概念図である。本実施の形態はデータ蓄積装置210を備えている点で第1の実施の形態と異なる。また、本実施の形態において、ロボット110がメモリを必ずしも必要としない点で第1の実施の形態と異なる。
【0035】
データ蓄積装置210は、例えば、ホームサーバであり、ネットワーク150に接続されている。データ蓄積装置210は、第1の実施の形態においてメモリ112が格納していた総てのデータを格納することができる。例えば、データ蓄積装置210は、ロボットの作業範囲の地図データおよびロボット110が存在する位置データを格納することができる。データ蓄積装置210は、さらに、オブジェクトが有するメモリ122、132、142に格納されたデータをも格納してもよい。例えば、データ蓄積装置210は、各オブジェクトの位置データ、画像データおよび特性データを格納してもよい。
【0036】
本実施の形態によれば、データ蓄積装置210が種々のデータを格納しているので、ロボット110および各オブジェクト120から140が容量の大きなメモリを備えている必要がない。
【0037】
さらに、第2の実施の形態の変形例として、計算機(図示せず)をネットワーク150に接続してもよい。計算機が位置データおよび画像データの比較処理を行うことによって、ロボット110は、比較器118を備える必要がなくなくなる。また、計算機がネットワーク150に接続されることによって、システム全体の計算能力を考慮した計算能力の配分を効率的にすることができる。即ち、kの変形例では、CPU117、126、136、146は計算能力の低いCPUであってもよい。
【0038】
尚、カメラ116は、ロボット110に配備したが、ロボット110の作業環境内にカメラを設置してもよい。この場合、ロボット110は、このカメラと通信可能に接続され、カメラにより撮影された画像データに基づいて作業を行う。
【0039】
【発明の効果】
本発明によるロボットシステムは、ロボットの作業環境内にあるオブジェクトが積極的に自己のデータをロボットへ供給する。それにより、このロボットシステムでは環境がロボットの作業を支援することができる。
【図面の簡単な説明】
【図1】本発明に係る第1の実施の形態に従ったロボットシステム100の概念図。
【図2】ロボットシステム100の動作を示すフロー図。
【図3】本発明に係る第2の実施の形態に従ったロボットシステム200の概念図。
【符号の説明】
100、200 ロボットシステム
110 ロボット
112 メモリ
114 インタフェース
116 カメラ
118 比較器
119 移動機構
120、130、140 オブジェクト
122、132、142 メモリ
124、134、144 インタフェース
150 ネットワーク
210 データ蓄積装置
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a robot system and a robot.
[0002]
[Prior art]
In recent years, autonomous robot systems have been used to perform work in various environments. Such a robot system is desired to be used not only in a special environment maintained like a factory but also in a more general environment. However, conventionally, it has been difficult for a robot to autonomously work in a general environment having various structures.
[0003]
As a prior art in which a robot autonomously works, there is a system in which an IDC (Intelligent Data Carrier) and a tag are arranged in an environment of a wall or an object (see Non-Patent Document 1).
[0004]
[Non-Patent Document 1]
Kurahashi et al. “Communication between Autonomous Robots and Environments by Intelligent Data Carriers” Vol. 17 NO. 5 (pp 633-636), 1999
[0005]
[Problems to be solved by the invention]
The IDC described in Non-Patent Document 1 has a CPU and a memory. However, the IDC did not actively provide the robot with information about the walls on which it was placed and the object itself. That is, the working environment has been passive or passive.
[0006]
Therefore, an object of the present invention is to provide a robot system in which objects such as various devices and furnishings in the robot work environment actively supply data to the robot, thereby supporting the robot work. Is to provide.
[0007]
[Means for Solving the Problems]
A robot system according to an embodiment of the present invention includes a robot and an object that can communicate with the robot.
The object requests the first position data , the first position data indicating the position of the object itself, the first storage unit storing the first image data indicating the image of the object itself, and the first position data. A first interface for receiving a request signal and transmitting the first position data and the first image data in response thereto;
The robot has a camera that captures an environment around the robot, a second storage unit that stores map data of a range where the object and the robot can exist, and second position data indicating a position of the robot itself A second interface for transmitting the request signal or receiving the first position data and the first image data , and comparing the first position data and the second position data A comparator that outputs a comparison result, compares the second image data captured by the camera with the first image data, and outputs an image comparison result ; the position comparison result ; the image comparison result; and A moving mechanism for moving the robot based on map data ;
When the distance between the first position data and the second position data is equal to or less than a predetermined value, the camera captures an image of the object to generate the second image data, and the image comparison The object is specified based on a result.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings. These embodiments do not limit the present invention.
[0011]
In the robot system according to the embodiment of the present invention, both the robot and the object have their respective position data and communicate bidirectionally. Thus, the object can actively provide data to the robot and support the robot.
[0012]
FIG. 1 is a conceptual diagram of a robot system 100 according to the first embodiment of the present invention. The robot system 100 includes a robot 110 and objects 120, 130 and 140. The robot 110 and the objects 120, 130, and 140 are connected to each other via a wireless or wired network 150.
[0013]
In the present embodiment, the object 120 is a refrigerator, the object 130 is a chest, and the object 140 is a microwave oven. The object is not limited to these, and may be other furniture or office equipment. The objects 120, 130, and 140 are all disposed within a work environment range (hereinafter referred to as a work range) in which the robot 110 can move and work. The objects 120, 130, and 140 include memories 122, 132, and 142, interfaces 124, 134, and 144, and CPUs 126, 136, and 146, respectively. As described above, the object is an object that is provided within the work range and can communicate with the robot, and is, for example, furniture including a memory, an interface, and a CPU, or office supplies.
[0014]
The memory 122 stores position data indicating the position of the object 120 and image data indicating the appearance thereof, the memory 132 stores position data indicating the position of the object 130 and image data indicating the appearance thereof, and the memory 142 stores the data of the object 140. Stores position data indicating the position and image data indicating the appearance thereof.
[0015]
The CPUs 126, 136, and 146 control the components of the objects 120, 130, and 140, respectively.
[0016]
The robot 110 is configured to move and work autonomously within the work range. The robot 110 includes a memory 112, an interface 114, a camera 116, a CPU 117, a comparator 118, and a moving mechanism 119. The memory 112 stores map data of a work range in which the objects 120, 130, and 140 and the robot 110 can exist, and position data indicating the position of the robot 110. The camera 116 can image the environment around the robot 110. The comparator 116 can compare the position data as well as the image data. The CPU 117 controls each component of the robot 110.
[0017]
The interfaces 114, 124, 134 and 144 are connected to each other via a network 150 so as to be able to communicate with each other.
[0018]
FIG. 2 is a flowchart showing the operation of the robot system 100. The robot 110 receives a command from the user to “take beer from the refrigerator” (S10). At this time, for example, the user may input by voice toward a microphone arranged in the robot 110. Alternatively, the user may send a command from the mobile phone to the robot 110 via the network 150 and the interface 114.
[0019]
The robot 110 initially does not have the position or image of the refrigerator 120. Therefore, when the robot 110 recognizes this command, it transmits the identifier of the refrigerator and the request signal to all objects connected to the network 150 (S20). This request signal is a signal for requesting position data of the refrigerator 120.
[0020]
The refrigerator 120 recognizes the identifier from the robot 110, receives the request signal, and transmits the position data stored in the memory 122 in response to this (S30). This position data is transmitted to the robot 110 via the network 150.
[0021]
The robot 110 receives the position data of the refrigerator 120 and stores it in the memory 120. The comparator 118 compares the position data of the refrigerator 120 with the position data of the robot 110 itself, and determines a route from the robot 110 to the refrigerator 120 (S40). At this time, the comparator 118 compares these position data on the map data of the work range, and searches all routes from the robot 110 to the refrigerator 120. Further, the comparator 118 selects an appropriate route from the search result. For example, the comparator 118 selects the shortest path. The comparator 118 may select a path that can be most easily passed or a path that can reach the refrigerator 120 in the shortest time. When selecting an appropriate route, the CPU 117 is used for calculation. In this way, the robot 110 selects an appropriate route. In order for the robot 110 to select an appropriate route, environment data within the work range is input in advance to the map data. The environmental data is data related to, for example, a narrow passage that the robot 110 cannot pass or a stair that takes time for the robot 110 to pass.
[0022]
The comparator 118 outputs the path selected by the comparator 118 to the moving mechanism 119 as a position comparison result (S50). The moving mechanism 119 moves the robot 110 along the position comparison result (S60).
[0023]
When the robot 110 approaches a predetermined distance from the refrigerator 120, the camera 116 images the environment around the robot 110 with the camera 116 (S70). The distance between the robot 110 and the refrigerator 120 may be measured using a detection signal. The detection signal is a signal that can be propagated in the work environment of the robot 110, and is, for example, an electromagnetic wave or an acoustic wave. In this case, the refrigerator 120 is provided with a signal generator (not shown) that generates a detection signal, and the robot 110 is provided with a signal detector (not shown) that detects the detection signal. The detection signal is transmitted directly from the refrigerator 120 to the robot 110 without passing through the network 150. The robot 110 can recognize the position and direction of the refrigerator 120 by detecting the detection signal.
[0024]
Next, the robot 110 transmits a request signal for requesting image data of the refrigerator 120 to the refrigerator 120 (S80). The refrigerator 120 receives the request signal, and transmits the image data stored in the memory 122 to the robot 110 in response to the request signal (S90). The robot 110 receives this image data and stores it in the memory 120. The image data transmitted by the refrigerator 120 is preferably plural. For example, image data obtained by photographing the refrigerator 120 from various angles, image data in a state where the door of the refrigerator 120 is closed, and an open state are transmitted.
[0025]
The comparator 118 compares the image data transmitted from the refrigerator 120 with the image data captured by the camera 116, and performs a matching process (S100). When there is image data obtained by photographing the refrigerator 120 from various angles, each of these image data and the image data taken by the camera 116 are compared. This facilitates the determination of whether the object photographed by the camera 116 is the refrigerator 120. When it is determined that the object photographed by the camera 116 is the same as the refrigerator 120, a signal indicating the identity is output as an image comparison result. On the other hand, when the comparator 118 recognizes that they are different, the comparator 118 outputs a signal indicating non-identity as an image comparison result. Note that the distance between the robot 110 and the refrigerator 120 may be calculated by this matching process.
[0026]
When the object photographed by the camera 116 is the same as that of the refrigerator 120, the robot 110 further transmits a request signal to the refrigerator 120 (S110).
[0027]
The memory 122 of the refrigerator 120 further stores characteristic data indicating the characteristics of the refrigerator 120. The characteristic data is, for example, data indicating the characteristics of an object such as the shape and size of the refrigerator 120, the position of the handle, the mechanism of the handle, and an object stored inside. The refrigerator 120 transmits this characteristic data to the robot 110 in response to the request signal (S120).
[0028]
While imaging the refrigerator 120 with the camera 116, the robot 110 opens the door of the refrigerator 120 based on the image data from the camera 116, the image data received from the refrigerator 120, and the characteristic data, and takes out beer from the door (S130). ).
[0029]
Further, the robot 110 returns to the reverse route to the refrigerator 120 and takes beer to the user (S140).
[0030]
On the other hand, if it is determined that the object photographed by the camera 116 is not the same as the refrigerator 120, the process returns to step 20.
[0031]
As described above, according to the present embodiment, the robot 110 performs work while performing bidirectional communication with the objects 120 to 140. As a result, an object in the work environment of the robot can actively supply data to the robot, so that the robot can move accurately and easily to perform the work.
[0032]
According to the present embodiment, since the robot 110 determines an object based on a plurality of comparison results, that is, a position comparison result and an image comparison result, the robot 110 is less likely to misidentify the object.
[0033]
In the present embodiment, the robot 110 may transmit the request signal only once. In this case, the refrigerator 120 that has received the request signal transmits position data, image data, and characteristic data to the robot 110 at the same time.
[0034]
FIG. 3 is a conceptual diagram of a robot system 200 according to the second embodiment of the present invention. This embodiment is different from the first embodiment in that a data storage device 210 is provided. Further, the present embodiment is different from the first embodiment in that the robot 110 does not necessarily require a memory.
[0035]
The data storage device 210 is a home server, for example, and is connected to the network 150. The data storage device 210 can store all the data stored in the memory 112 in the first embodiment. For example, the data storage device 210 can store map data of a robot work range and position data where the robot 110 exists. The data storage device 210 may also store data stored in the memories 122, 132, and 142 included in the object. For example, the data storage device 210 may store position data, image data, and characteristic data of each object.
[0036]
According to the present embodiment, since the data storage device 210 stores various data, the robot 110 and the objects 120 to 140 do not need to have a large capacity memory.
[0037]
Furthermore, as a modification of the second embodiment, a computer (not shown) may be connected to the network 150. When the computer performs the comparison process between the position data and the image data, the robot 110 does not need to include the comparator 118. Further, by connecting the computer to the network 150, it is possible to efficiently distribute the computing capacity in consideration of the computing capacity of the entire system. That is, in the modified example of k, the CPUs 117, 126, 136, and 146 may be CPUs with low calculation capabilities.
[0038]
Although the camera 116 is provided in the robot 110, the camera may be installed in the work environment of the robot 110. In this case, the robot 110 is communicably connected to the camera and performs work based on image data captured by the camera.
[0039]
【The invention's effect】
In the robot system according to the present invention, an object in the robot work environment actively supplies its own data to the robot. Thereby, in this robot system, the environment can support the work of the robot.
[Brief description of the drawings]
FIG. 1 is a conceptual diagram of a robot system 100 according to a first embodiment of the present invention.
FIG. 2 is a flowchart showing the operation of the robot system 100.
FIG. 3 is a conceptual diagram of a robot system 200 according to a second embodiment of the present invention.
[Explanation of symbols]
100, 200 Robot system 110 Robot 112 Memory 114 Interface 116 Camera 118 Comparator 119 Moving mechanism 120, 130, 140 Object 122, 132, 142 Memory 124, 134, 144 Interface 150 Network 210 Data storage device

Claims (5)

ロボットおよび該ロボットと通信可能なオブジェクトを含むロボットシステムにおいて、
前記オブジェクトは、該オブジェクト自体の位置を示す第1の位置データ、および、該オブジェクト自体の画像を示す第1の画像データを格納する第1の記憶部と、前記第1の位置データを要求する要求信号を受信しそれに応じて前記第1の位置データおよび前記第1の画像データを送信する第1のインタフェースとを備え、
前記ロボットは、前記ロボットの周囲の環境を撮像するカメラと、前記オブジェクトおよび前記ロボットが存在し得る範囲の地図データ並びに該ロボット自体の位置を示す第2の位置データを格納する第2の記憶部と、前記要求信号を送信しまたは前記第1の位置データおよび前記第1の画像データを受信する第2のインタフェースと、前記第1の位置データと前記第2の位置データとを比較して位置比較結果を出力し、前記カメラが撮影した前記第2の画像データと前記第1の画像データとを比較して画像比較結果を出力する比較器と、前記位置比較結果、前記画像比較結果および前記地図データに基づいて該ロボットを移動させる移動機構とを備え
前記第1の位置データと前記第2の位置データとの距離が所定値以下になったときに、前記カメラは前記オブジェクトの画像を撮影して前記第2の画像データを生成し、前記画像比較結果に基づいて前記オブジェクトを特定することを特徴とするロボットシステム。
In a robot system including a robot and an object capable of communicating with the robot,
The object requests the first position data , the first position data indicating the position of the object itself, the first storage unit storing the first image data indicating the image of the object itself, and the first position data. A first interface for receiving a request signal and transmitting the first position data and the first image data in response thereto;
The robot has a camera that captures an environment around the robot, a second storage unit that stores map data of a range where the object and the robot can exist, and second position data indicating a position of the robot itself A second interface for transmitting the request signal or receiving the first position data and the first image data , and comparing the first position data and the second position data A comparator that outputs a comparison result, compares the second image data captured by the camera with the first image data, and outputs an image comparison result ; the position comparison result ; the image comparison result; and A moving mechanism for moving the robot based on map data ;
When the distance between the first position data and the second position data is equal to or less than a predetermined value, the camera captures an image of the object to generate the second image data, and the image comparison A robot system that identifies the object based on a result .
前記ロボットは、前記位置比較結果および前記地図データに従って前記オブジェクトへの経路を決定し、前記画像比較結果に従って該オブジェクトへ接近することを特徴とする請求項に記載のロボットシステム。The robot system according to claim 1 , wherein the robot determines a route to the object according to the position comparison result and the map data, and approaches the object according to the image comparison result. 前記ロボットは、前記第2の位置データを前記要求信号とともに複数の前記オブジェクトへ送信し、
複数の前記オブジェクトのうち前記第2の位置データに距離が最も近い第1の位置データを有するオブジェクトが該第1の位置データを送信することを特徴とする請求項1に記載のロボットシステム。
The robot transmits the second position data to the plurality of objects together with the request signal;
2. The robot system according to claim 1, wherein an object having first position data that is closest to the second position data among the plurality of objects transmits the first position data.
前記オブジェクトは該オブジェクトが存在する位置およびその方向を示す検出用信号を発する信号発生器をさらに備え、
前記ロボットは前記検出用信号を検出する信号検出器をさらに備えたことを特徴とする請求項1に記載のロボットシステム。
The object further comprises a signal generator that emits a detection signal indicating the position and direction of the object.
The robot system according to claim 1, further comprising a signal detector that detects the detection signal.
前記オブジェクトにおいて、前記第1の記憶部は、前記オブジェクトの特性を示す特性データを格納し、前記第1のインタフェースは前記特性データを要求する要求信号を受信しそれに応じて前記特性データを送信することを特徴とする請求項1に記載のロボットシステム。  In the object, the first storage unit stores characteristic data indicating the characteristic of the object, and the first interface receives a request signal for requesting the characteristic data and transmits the characteristic data accordingly. The robot system according to claim 1.
JP2003070155A 2003-03-14 2003-03-14 Robot system and robot Expired - Fee Related JP3940687B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003070155A JP3940687B2 (en) 2003-03-14 2003-03-14 Robot system and robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003070155A JP3940687B2 (en) 2003-03-14 2003-03-14 Robot system and robot

Publications (2)

Publication Number Publication Date
JP2004280404A JP2004280404A (en) 2004-10-07
JP3940687B2 true JP3940687B2 (en) 2007-07-04

Family

ID=33286977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003070155A Expired - Fee Related JP3940687B2 (en) 2003-03-14 2003-03-14 Robot system and robot

Country Status (1)

Country Link
JP (1) JP3940687B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170039400A (en) * 2015-10-01 2017-04-11 대우조선해양 주식회사 Pose and Distance Control Method of CCS Inspection Robot

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5187563B2 (en) * 2007-01-22 2013-04-24 株式会社ゼットエムピー Sound reproduction robot
CN105741508A (en) * 2016-03-31 2016-07-06 北京海尔广科数字技术有限公司 Method, device and robot for releasing alarm

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000214926A (en) * 1999-01-22 2000-08-04 Sogo Keibi Hosho Co Ltd Travel position detecting means for autonomous mobile
JP2001212782A (en) * 2000-01-31 2001-08-07 Sony Corp Robot device and control method for robot device
JP2001300874A (en) * 2000-04-25 2001-10-30 Casio Comput Co Ltd Robot device and program recording medium therefor
JP2002085305A (en) * 2000-09-12 2002-03-26 Toshiba Tec Corp Robot cleaner and robot cleaner system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170039400A (en) * 2015-10-01 2017-04-11 대우조선해양 주식회사 Pose and Distance Control Method of CCS Inspection Robot

Also Published As

Publication number Publication date
JP2004280404A (en) 2004-10-07

Similar Documents

Publication Publication Date Title
EP3134870B1 (en) Electronic device localization based on imagery
JP6927938B2 (en) Robot system incorporating cloud service system
KR20170132622A (en) Electronic device having speech recognition function and operating method of Electronic device
US20180123820A1 (en) Apparatus and method of generating internet of things data
CN111868546A (en) Asset localization using direction finding features
US11472038B2 (en) Multi-device robot control
Gudi et al. Fog robotics for efficient, fluent and robust human-robot interaction
CN104333498A (en) Method and device for controlling intelligent home devices
KR20220071854A (en) Method, apparatus and smart device for sharing file
JPWO2016143325A1 (en) CAMERA SYSTEM AND ITS CONTROL METHOD, ELECTRONIC DEVICE AND ITS CONTROL PROGRAM
US20180326593A1 (en) Service provision system
JP2018005431A (en) Operation monitoring server and operation monitoring system
JP3940687B2 (en) Robot system and robot
US11822314B2 (en) Conveyance control system, conveyance control program, and conveyance control method
US9824577B2 (en) Method and apparatus for controlling device
JP2021013159A (en) Information processing apparatus, telepresence robot, site control system, remote control system, information processing method, and program
KR102436960B1 (en) Method for providing charging system for home robot
JP4899194B2 (en) Terminal, network device, network device search system including terminal and network device, and network device search method
KR102499917B1 (en) Electronic device performing positioning and method for controlling thereof
KR20100069971A (en) Robot positioning navigation method based on the sensor network
JP2018063679A (en) Position estimation system and method
Yunxiao et al. An improved indoor positioning method based on received signal strengths
KR20210078207A (en) Robot and robot system
JP2023505962A (en) Controlling Sensor Activation and Deactivation for Energy Efficient Self-Localization
US20170134509A1 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070402

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100406

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110406

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130406

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140406

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees