JP2005088146A - Object processing system, object processing method and robot - Google Patents

Object processing system, object processing method and robot Download PDF

Info

Publication number
JP2005088146A
JP2005088146A JP2003326715A JP2003326715A JP2005088146A JP 2005088146 A JP2005088146 A JP 2005088146A JP 2003326715 A JP2003326715 A JP 2003326715A JP 2003326715 A JP2003326715 A JP 2003326715A JP 2005088146 A JP2005088146 A JP 2005088146A
Authority
JP
Japan
Prior art keywords
information
robot
tag
reading
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003326715A
Other languages
Japanese (ja)
Inventor
Kazuo Tanie
和雄 谷江
Shigeoki Hirai
成興 平井
Rakuei Cho
洛榮 丁
Kotaro Oba
光太郎 大場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2003326715A priority Critical patent/JP2005088146A/en
Publication of JP2005088146A publication Critical patent/JP2005088146A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To simply identify an object in working environments by a picked-up image. <P>SOLUTION: This system includes an information server 101 in which object recognition information OBS needed for recognizing images of objects 501-506 is stored, a robot 1 for identifying the objects 501-506 based on the object processing information OBS stored in the server 101, and object identifying devices 201-206 for monitoring environments of the robot 1. The robot 1 includes a tag reader/writer 4 for reading information from tags 501a-506a attached to the objects 501-506, an address processing part and a network processing part for reading the object recognition information OBS from the information server 101 based on object ID information OB read by the tag reader/writer 4, and a control part 5 for identifying the object by the use of the object recognition information OBS read by the address processing part or the like, picked-up image information obtained by an imaging part 9, and object identification results of the object identifying devices 201-206. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、与えられた作業環境で、作業環境内に存在する物体に対して操作や作業等の処理を自律的に行うロボット、並びにロボットを使用して行う物体処理システム及び物体処理方法に関する。   The present invention relates to a robot that autonomously performs processing such as operation and work on an object existing in the work environment in a given work environment, and an object processing system and an object processing method that use the robot.

ロボットに撮像部を備えさせ、ロボットに作業をさせるシステムがある。いわゆる、ロボットがロボットビジョンにより自律的に作業する場合である。
このシステムでは、ロボットは、撮像部から得られる画像から、形状等の情報に基づいて、作業環境に存在する作業対象の物体を認識して、その物体を特定している。
ここで、与えられた作業環境でロボットに自律的に作業を遂行させる1つの方法として作業環境に存在する作業対象になる物体に関する情報を知識としてロボットに与え、ロボットにその知識を活用して作業計画を構築させ、自律的に作業を遂行させる方法がある。
There is a system in which an imaging unit is provided in a robot and the robot is allowed to work. This is a case where the robot works autonomously by robot vision.
In this system, a robot recognizes an object to be worked in a work environment from an image obtained from an imaging unit based on information such as a shape and specifies the object.
Here, as one method for allowing a robot to autonomously perform work in a given work environment, information about an object to be a work target existing in the work environment is given to the robot as knowledge, and the robot uses the knowledge to work. There is a way to build a plan and perform work autonomously.

例えば、図12に示すように、6個の種々の物体501,502,503,504,505,506が存在する作業環境でロボット600が自律的に作業する場合を例に挙げて説明する。図12では、作業環境に存在する物体501〜506を2次元平面の物体として示しているが、実際は、作業環境は3次元空間であり、この作業環境に存在する物体501〜506も3次元空間に存在する立体の物体である。   For example, as shown in FIG. 12, a case where the robot 600 autonomously works in a working environment where six various objects 501, 502, 503, 504, 505, and 506 exist will be described as an example. In FIG. 12, the objects 501 to 506 existing in the work environment are shown as two-dimensional plane objects. However, the work environment is actually a three-dimensional space, and the objects 501 to 506 existing in the work environment are also three-dimensional space. Is a solid object.

ここで、ロボット600が初期位置P1から目的位置P2まで自律的に移動する場合を考える。
図13は、このような移動をロボットに実現させるための人的作業を示す。
先ず、各物体501〜506の情報を含む作業環境モデルWMを用意する。
作業環境モデルWMはロボット600が作業する現実の作業環境Wの構造を示す情報であり、作業環境モデルWMには、作業環境Wに存在する各物体501〜506の情報が含まれている。
Here, consider a case where the robot 600 autonomously moves from the initial position P1 to the target position P2.
FIG. 13 shows human work for causing the robot to realize such movement.
First, a work environment model WM including information on each object 501 to 506 is prepared.
The work environment model WM is information indicating the structure of the actual work environment W in which the robot 600 works, and the work environment model WM includes information on each object 501 to 506 existing in the work environment W.

物体501〜506の情報の内容としては種々あるが、例えば当該物体501〜506の位置(例えば絶対位置)の情報や幾何学的形状の情報がある。このような情報を、ロボット600の設計者が作業環境モデルWMとして記述して、この作業環境モデルWMを、ロボット600の制御部(コンピュータ)601内に構築させている。例えば、作業環境モデルWMを環境データとして制御部(コンピュータ)601内に構築させている。   There are various contents of information on the objects 501 to 506, for example, information on the positions (for example, absolute positions) of the objects 501 to 506 and information on geometric shapes. The designer of the robot 600 describes such information as a work environment model WM, and the work environment model WM is built in the control unit (computer) 601 of the robot 600. For example, the work environment model WM is constructed in the control unit (computer) 601 as environment data.

制御部601には、このような作業環境モデルWMの他に、ロボット600が動作するための情報或いはプログラムが格納されている。
例えば、ロボット600が動作するための情報として、ロボット600の大きさ等の情報が格納されている。また、ロボット600が動作するための制御プログラムとして、作業計画アルゴリズムが格納されている。作業計画アルゴリズムは、作業環境モデルWMに基づいてロボット600の作業手順である作業計画を作成するためのアルゴリズムである。そして、ロボット600が動作するための情報或いはプログラムは、ロボット600の設計者によって決定或いは設計されて、予め制御部601に格納されている。
The control unit 601 stores information or a program for operating the robot 600 in addition to such a work environment model WM.
For example, information such as the size of the robot 600 is stored as information for operating the robot 600. In addition, a work plan algorithm is stored as a control program for operating the robot 600. The work plan algorithm is an algorithm for creating a work plan that is a work procedure of the robot 600 based on the work environment model WM. Information or a program for operating the robot 600 is determined or designed by the designer of the robot 600 and stored in the control unit 601 in advance.

そして、制御部601は、ロボット600の駆動部602を制御している。駆動部602は、例えばロボット600が移動するための移動手段等から構成されている。
このようなロボット600は、作業指令(或いは動作指令)が与えられると、制御部601が作業計画アルゴリズムにより、ロボット600の大きさ、作業環境モデルWMの物
体の位置や幾何学的形状を参照して、ロボット600と物体との干渉チェックを行う等数理的演算処理行い、初期位置P1から目標位置P2までの経路を割り出す。このとき、ロボット600は、撮像部が撮像した画像と幾何学的形状の情報(例えばテンプレート)を用いて認識処理を行い、例えばテンプレートマッチングを行い、物体を特定している。
The control unit 601 controls the drive unit 602 of the robot 600. The drive unit 602 is composed of, for example, moving means for moving the robot 600.
In such a robot 600, when a work command (or operation command) is given, the control unit 601 refers to the size of the robot 600, the position of the object of the work environment model WM, and the geometric shape by the work plan algorithm. Thus, the mathematical calculation process for checking the interference between the robot 600 and the object is performed, and the path from the initial position P1 to the target position P2 is determined. At this time, the robot 600 performs recognition processing using the image captured by the imaging unit and information on the geometric shape (for example, a template), performs template matching, for example, and identifies an object.

そして、制御部601は、その割り出した経路に沿うように実際にロボット600が動作するように作業計画を立てる。ここで、作業計画とは、ロボット600が作業を実現するために、どのように駆動部602を制御すればよいかを示す情報(制御信号群)からなる。制御部601は、この作業計画に基づいて制御信号を駆動部602に出力して、駆動部602を制御する。これにより、ロボット600は、物体501〜506への接触を避けて、初期位置P1から目的位置P2まで自律的に移動する。   Then, the control unit 601 makes a work plan so that the robot 600 actually operates along the determined route. Here, the work plan includes information (control signal group) indicating how the drive unit 602 should be controlled in order for the robot 600 to realize the work. The control unit 601 controls the drive unit 602 by outputting a control signal to the drive unit 602 based on this work plan. As a result, the robot 600 autonomously moves from the initial position P1 to the target position P2 while avoiding contact with the objects 501 to 506.

以上のように、ロボットを制御するコンピュータ(制御部)内に作業環境モデルを構築するとともに、その作業環境モデルを参照してロボットに作業計画を立てさせ、ロボットに自律的に作業させる方法が従来より提案されており、このような方法の研究が多くの研究者によりなされている。このようなロボットを自律的に作業させるこのような方法は、モデルベーストによるロボットの自律制御技術と呼ばれている。   As described above, there has conventionally been a method of constructing a work environment model in a computer (control unit) that controls a robot, making the robot make a work plan with reference to the work environment model, and causing the robot to work autonomously. Many researchers have been researching such methods. Such a method for autonomously working such a robot is called a model-based autonomous control technology of the robot.

なお、このような方法は、ロボットを移動させるためだけに用いられているとも限られない。例えば、作業環境に存在する物体に種々の操作を行うために使われるロボットアームやロボットマニピュレータを自律的に作業させるのにも適用できる。例えば、ロボットアーム・マニピュレータに適用する場合、作業環境の物体の情報(作業環境モデル)には、物体の位置や幾何学的形状の他に物体を把持する位置(把持に最適な位置)等が含ませること等が行われる。   Such a method is not necessarily used only for moving the robot. For example, the present invention can be applied to autonomously operating a robot arm or a robot manipulator used for performing various operations on an object existing in a work environment. For example, when applied to a robot arm manipulator, the object information (work environment model) in the work environment includes the position of the object (position optimal for grasping) in addition to the position and geometric shape of the object. Inclusion is performed.

しかし、ロボットが作業環境にある物体を認識する能力には限界があり、人間と同等の物体認識能力には至るものではない。すなわち、前述の例であれば、前記テンプレートマッチングで使用する幾何学的形状の情報(例えばテンプレート)を特定できないと、作業環境の物体を特定できなくなる。このように、作業環境に存在する物体をロボットが的確に特定できないと、ロボットが物体に対して適切に操作や作業をすることができなくなる。
そこで、本発明は、このような実情に鑑みてなされたものであり、作業環境における物体を撮像画像により簡単に認識(特定)できるロボット、物体処理システム及び物体処理方法の提供を目的とする。
However, there is a limit to the ability of the robot to recognize an object in the work environment, and it does not reach an object recognition ability equivalent to that of a human. In other words, in the above-described example, it is impossible to specify an object in the work environment unless information on a geometric shape (for example, a template) used in the template matching can be specified. As described above, if the robot cannot accurately identify the object existing in the work environment, the robot cannot appropriately operate or work on the object.
Therefore, the present invention has been made in view of such circumstances, and an object thereof is to provide a robot, an object processing system, and an object processing method that can easily recognize (specify) an object in a work environment from a captured image.

請求項1記載の発明に係る物体処理システムは、物体を画像認識するために必要な物体認識用情報が記憶されている情報サーバと、前記情報サーバに記憶されている物体処理用情報に基づいて前記物体を特定するロボットと、前記ロボットの環境を監視する監視装置とを備える。この物体処理システムでは、前記監視装置は、前記ロボットの環境を監視して監視情報を得ており、前記ロボットは、周囲を撮像する第1の撮像手段と、前記情報サーバから前記物体認識用情報を読み込むための読み込み用情報を、前記物体に付されている非接触型タグから比接触で読み取る第1のタグリーダと、前記第1のタグリーダが読み取った前記読み込み用情報に基づいて、前記情報サーバから前記物体認識用情報を読み込む第1の通信手段と、前記第1の通信手段が読み込んだ前記物体認識用情報と前記第1の撮像手段が得た撮像画像情報とを用いて前記物体を特定するとともに、その物体の特定に前記監視手段が得た監視情報も用いる物体特定手段とを備えることを特徴とする。   An object processing system according to a first aspect of the present invention is based on an information server storing object recognition information necessary for image recognition of an object, and object processing information stored in the information server. A robot that identifies the object; and a monitoring device that monitors an environment of the robot. In this object processing system, the monitoring device obtains monitoring information by monitoring the environment of the robot, and the robot has first imaging means for imaging the surroundings and the information for object recognition from the information server. A first tag reader that reads the information for reading from the non-contact type tag attached to the object by specific contact, and the information server based on the reading information read by the first tag reader The object is identified by using first communication means for reading the object recognition information from, the object recognition information read by the first communication means and the captured image information obtained by the first imaging means. And an object specifying unit that also uses the monitoring information obtained by the monitoring unit for specifying the object.

また、請求項2記載の発明に係る物体処理システムは、請求項1記載の発明に係る物体処理システムにおいて、前記監視装置が、周囲を撮像する第2の撮像手段と、前記物体に付されている非接触型タグから比接触で前記読み込み用情報を読み取る第2のタグリーダと、前記第2のタグリーダが読み取った前記読み込み用情報に基づいて、前記情報サーバから前記物体認識用情報を読み込む第2の通信手段と、前記第2の通信手段が読み込んだ前記物体認識用情報と前記第2の撮像手段が得た撮像画像情報とを用いて前記物体を特定して、その特定結果を前記監視情報として前記ロボットに送信する送信手段とを備えることを特徴とする。   An object processing system according to a second aspect of the present invention is the object processing system according to the first aspect of the present invention, wherein the monitoring device is attached to a second imaging means for imaging the surroundings and the object. A second tag reader that reads the reading information from the non-contact type tag that is in a specific contact; and a second tag reader that reads the object recognition information from the information server based on the reading information read by the second tag reader. The object is identified using the communication means, the object recognition information read by the second communication means and the captured image information obtained by the second imaging means, and the identification result is obtained as the monitoring information. And transmitting means for transmitting to the robot.

また、請求項3記載の発明に係る物体処理システムは、請求項1又は2に記載の発明に係る物体処理システムにおいて、前記ロボットが、前記タグに情報を書き込むタグライタと、前記物体特定手段が特定した物体の情報を前記タグライタにより前記タグに書き込む物体情報書き込み手段とを備え、前記タグリーダが、前記物体情報書き込み手段が前記タグに書き込んだ前記物体の情報を読み取ることを特徴とする。   An object processing system according to a third aspect of the present invention is the object processing system according to the first or second aspect of the present invention, wherein the robot writes a tag writer that writes information into the tag and the object specifying means specifies the object processing system. Object information writing means for writing information on the object to the tag by the tag writer, and the tag reader reads information on the object written on the tag by the object information writing means.

また、請求項4記載の発明に係る物体処理方法は、物体を画像認識するために必要な物体認識用情報を情報サーバに記憶させ、かつ前記情報サーバから前記物体認識用情報を読み込むための読み込み用情報を、前記物体に付されている非接触型タグに記憶させ、監視装置によりロボットの環境を監視して監視情報を得ており、前記ロボットが、撮像手段により周囲の撮像画像情報を取得するとともに、前記非接触型タグからタグリーダにより比接触で前記読み込み用情報を読み取り、その読み取った読み込み用情報に基づいて、前記情報サーバから前記物体処理用情報を読み込み、その読み込んだ物体認識用情報と前記撮像画像情報とを用いて前記物体を特定するとともに、その物体の特定に前記監視情報も用いることを特徴とする。   According to a fourth aspect of the present invention, there is provided an object processing method for storing object recognition information necessary for image recognition of an object in an information server and reading the object recognition information from the information server. Information is stored in a non-contact tag attached to the object, the monitoring environment is obtained by monitoring the environment of the robot by a monitoring device, and the robot acquires surrounding captured image information by an imaging means. In addition, the reading information is read from the non-contact type tag by specific contact using a tag reader, the object processing information is read from the information server based on the read reading information, and the read object recognition information is read. And the captured image information are used to specify the object, and the monitoring information is also used to specify the object.

また、請求項5記載の発明に係る物体処理方法は、請求項4記載の発明に係る物体処理方法において、前記ロボットが、前記特定した物体の情報をタグライタにより前記タグに書き込み、前記ロボットが、前記タグに前記物体の情報が書き込まれている場合には、前記タグリーダにより当該物体の情報を読み取ることを特徴とする。
また、請求項6記載の発明に係るロボットは、情報サーバに記憶されている物体を画像認識するために必要な物体処理用情報及び監視装置がロボットの環境を監視して得た監視情報に基づいて前記物体を特定するロボットである。このロボットは、周囲を撮像する撮像手段と、前記情報サーバから前記物体認識用情報を読み込むための読み込み用情報を、前記物体に付されている非接触型タグから比接触で読み取るタグリーダと、前記タグリーダが読み取った前記読み込み用情報に基づいて、前記情報サーバから前記物体認識用情報を読み込む通信手段と、前記通信手段が読み込んだ前記物体認識用情報と前記撮像手段が得た撮像画像情報とを用いて前記物体を特定するとともに、その物体の特定に前記監視情報も用いる物体特定手段とを備えることを特徴とする。
An object processing method according to a fifth aspect of the present invention is the object processing method according to the fourth aspect of the present invention, wherein the robot writes information on the identified object to the tag by a tag writer, When information on the object is written on the tag, the information on the object is read by the tag reader.
According to a sixth aspect of the present invention, there is provided a robot according to the object processing information necessary for recognizing an object stored in the information server and the monitoring information obtained by the monitoring device monitoring the environment of the robot. A robot for identifying the object. The robot includes an imaging unit that images the surroundings, a tag reader that reads read information for reading the object recognition information from the information server from a non-contact tag attached to the object, and Based on the reading information read by the tag reader, communication means for reading the object recognition information from the information server, the object recognition information read by the communication means, and the captured image information obtained by the imaging means. And an object specifying means for specifying the object and using the monitoring information for specifying the object.

以上の請求項1、4及び6記載の発明では、物体を画像認識するために必要な物体認識用情報を情報サーバに記憶させ、かつ情報サーバから物体認識用情報を読み込むための読み込み用情報を、物体に付されている非接触型タグに記憶させることが前提となる。そして、ロボットが、撮像手段(第1の撮像手段)により周囲の撮像画像情報を取得するとともに、非接触型タグからタグリーダ(第1のタグリーダ)により比接触で読み込み用情報を読み取り、その読み取った読み込み用情報に基づいて、情報サーバから物体処理用情報を読み込み、その読み込んだ物体認識用情報と撮像画像情報とを用いて、物体を特定している。そして、この物体の特定には、ロボットの環境を監視する監視装置が得た監視情報も用いている。   In the first, fourth, and sixth aspects of the invention, the information for object recognition necessary for image recognition of the object is stored in the information server, and the reading information for reading the object recognition information from the information server is stored. It is premised that the information is stored in a non-contact tag attached to the object. Then, the robot obtains the surrounding captured image information by the imaging means (first imaging means), reads the information for reading from the non-contact type tag by the tag reader (first tag reader), and reads the information. Based on the reading information, the object processing information is read from the information server, and the object is specified using the read object recognition information and captured image information. For identifying the object, monitoring information obtained by a monitoring device that monitors the environment of the robot is also used.

すなわち、ロボット自身が物体に付されているタグの情報に基づいて当該物体を特定す
るためにふさわしい物体認識情報だけを情報サーバから得て、その物体認識用情報と撮像画像情報とを用いて物体を特定する処理を行っている。そして、この物体の特定に、ロボットの環境を監視する監視装置が得た監視情報も用いている。例えば、ロボットの環境としては、ロボットが特定する物体を含む環境が挙げられる。
That is, only the object recognition information suitable for specifying the object based on the information of the tag attached to the object by the robot itself is obtained from the information server, and the object is obtained using the object recognition information and the captured image information. Processing to identify is performed. The monitoring information obtained by the monitoring device that monitors the environment of the robot is also used for specifying the object. For example, the environment of the robot includes an environment including an object specified by the robot.

本発明によれば、物体の特定の処理にふさわしい物体認識用情報だけを用いて、当該物体の特定の処理を行っているので、簡単かつ確実に物体を特定できる。そして、監視情報を用いることで、その物体の特定精度を高くすることができる。
また、請求項3及び5記載の発明によれば、特定した物体の情報をタグに書き込んでいるので、後にロボットが物体を特定しようとする際にタグに書き込まれているその特定した物体の情報、例えば物体の位置情報を読み出すことで、物体処理用情報を用いることなく、物体を特定できるようになる。
According to the present invention, since the object specific process is performed using only the object recognition information suitable for the object specific process, the object can be specified easily and reliably. Then, by using the monitoring information, the accuracy of identifying the object can be increased.
According to the third and fifth aspects of the present invention, since the information on the specified object is written on the tag, the information on the specified object written on the tag when the robot tries to specify the object later. For example, by reading the position information of the object, the object can be specified without using the object processing information.

本発明を実施するための最良の形態を図面を参照しながら詳細に説明する。
図1は、作業環境(作業空間)Wに6個の物体(3次元物体)501,502,503,504,505,506が存在しており、その作業環境Wを移動するロボット1の様子を示す。
ロボット1は、移動台車2の上部にアーム3を備えることで、作業環境Wに存在する物体501〜506に対する操作或いは作業を行うことができるように構成されている。また、ロボット1は、インターネット等の情報通信ネットワークNETを介して情報サーバ101と接続されている。
The best mode for carrying out the present invention will be described in detail with reference to the drawings.
In FIG. 1, there are six objects (three-dimensional objects) 501, 502, 503, 504, 505, and 506 in the work environment (work space) W, and the state of the robot 1 moving in the work environment W is shown. Show.
The robot 1 is configured to be able to perform operations or work on the objects 501 to 506 existing in the work environment W by providing the arm 3 on the upper part of the movable carriage 2. The robot 1 is connected to an information server 101 via an information communication network NET such as the Internet.

情報サーバ101は、ロボット1が物体501〜506を認識するための情報(以下、物体認識用情報という。)OBSを管理している。その物体認識用情報OBSとしては、物体501〜506の幾何学的形状や色の情報が挙げられる。そして、この情報サーバ101への物体認識用情報OBSの初期の書き込み或いはアップロード(初期値の書き込み或いはアップロード)は、物体501〜506の製造者、その製造者から委託をうけた事業者等によって行われる。   The information server 101 manages information (hereinafter referred to as object recognition information) OBS for the robot 1 to recognize the objects 501 to 506. Examples of the object recognition information OBS include information on the geometric shapes and colors of the objects 501 to 506. Then, initial writing or uploading of the object recognition information OBS to the information server 101 (initial value writing or uploading) is performed by the manufacturer of the objects 501 to 506, the company entrusted by the manufacturer, or the like. Is called.

この情報サーバ101の設置場所は、例えばインターネットのプロトコル等を使用して、情報通信ネットワークNET上でアクセス可能な場所であり、情報通信ネットワークNET上の任意の場所である。
例えば、情報サーバ101は、プロバイダのような情報管理企業であるユビキタス知識管理企業により管理されている。この場合、物体認識用情報OBSは、このユビキタス知識管理企業によって管理され、ユビキタス知識管理企業によって情報サーバ101への書き込み或いはアップロードがなされる。
The installation location of the information server 101 is an accessible location on the information communication network NET using, for example, the Internet protocol, and is an arbitrary location on the information communication network NET.
For example, the information server 101 is managed by a ubiquitous knowledge management company that is an information management company such as a provider. In this case, the object recognition information OBS is managed by the ubiquitous knowledge management company, and written or uploaded to the information server 101 by the ubiquitous knowledge management company.

例えば、多くの物体(製品)が存在するような場合に、物体認識用情報OBSの作成を、物体(製品)を製造する企業に任せてしまうと、それぞれ物体操作用情報OBの規格が統一できなくなり、物体操作用情報OBSの有用性は低いものになる。物体操作用情報OBの規格が統一されていないと、例えば、物体操作用情報OBSを扱うソフトウェアの作成は、その物体操作用情報OBSごとに全く異なる方式のもとで行う必要がある。このようなことから、ユビキタス知識管理企業が、各物体(製品)ごとに存在する物体認識用情報OBSを加工する等して一定規格のものとして、情報サーバ101で管理している。   For example, when there are many objects (products), if the creation of the object recognition information OBS is left to the company that manufactures the objects (products), the standards for the object operation information OB can be unified. The usefulness of the object operation information OBS is low. If the standard of the object operation information OB is not unified, for example, the creation of software that handles the object operation information OBS needs to be performed under a completely different method for each object operation information OBS. For this reason, the ubiquitous knowledge management company manages the object recognition information OBS existing for each object (product) as the one of a certain standard and manages it by the information server 101.

各物体501〜506は、作業環境Wにおいてロボット1が扱う物体であり、図2に示すように、各物体501〜506にはタグ501a〜506aが装着されている。各物体501〜506はそれぞれが、固有の形状や重量等を有している。すなわち、各物体50
1〜506は、前記物体認識用情報OBSが示す特性を有している。
タグ501a〜506aとしては、RFID(Radio Frequency Identification)のような無線ICタグが挙げられる。RFIDは、対環境性に優れた数cm程度の大きさからなり、電子的にデータを記憶し、電波や電磁波で読み取り器と交信することが可能な構造を有している。
The objects 501 to 506 are objects handled by the robot 1 in the work environment W. As shown in FIG. 2, tags 501 a to 506 a are attached to the objects 501 to 506. Each of the objects 501 to 506 has a unique shape, weight, and the like. That is, each object 50
1 to 506 have characteristics indicated by the object recognition information OBS.
Examples of the tags 501a to 506a include wireless IC tags such as RFID (Radio Frequency Identification). RFID has a size of about several centimeters excellent in environmental resistance, and has a structure capable of electronically storing data and communicating with a reader by radio waves or electromagnetic waves.

タグ501a〜506aには、当該タグ501a〜506aが付されている物体501〜506を特定するための情報(以下、物体ID情報という。)OBが書き込まれている。その物体ID情報OBには、物体認識用情報OBSを管理している情報サーバ101のアドレス情報が含まれている。そのアドレス情報は、情報通信ネットワークNET上の情報サーバ101を特定するための情報(以下、サーバアドレス情報という。)と、当該特定した情報サーバにおいて物体認識用情報OBSが格納されている特定の記憶領域に関する情報(例えばIP(Internet Protocol))情報(以下、データアドレス情報という。)とを含んで構成されている。また、物体ID情報OBには、物体の外見的特性であり、かつ少ないデータ量で示すことが可能な情報、例えば物体の色を示す色情報や2次元形状(平面視形状)の情報等が含まれている。この物体ID情報は、情報サーバ101から物体認識用情報OBSをロボット1に読み込むための読み込み用情報を構成している。   Information (hereinafter referred to as object ID information) OB for identifying the objects 501 to 506 to which the tags 501a to 506a are attached is written in the tags 501a to 506a. The object ID information OB includes address information of the information server 101 that manages the object recognition information OBS. The address information includes information for specifying the information server 101 on the information communication network NET (hereinafter referred to as server address information) and a specific memory in which the object recognition information OBS is stored in the specified information server. It includes information on areas (for example, IP (Internet Protocol)) information (hereinafter referred to as data address information). The object ID information OB includes information that is an appearance characteristic of the object and can be represented with a small amount of data, such as color information indicating the color of the object, information on a two-dimensional shape (planar shape), and the like. include. This object ID information constitutes reading information for reading the object recognition information OBS from the information server 101 into the robot 1.

ロボット1は、図1及び図3に示すように、タグリーダライタ4、制御部5、駆動部6、アドレス処理部7、ネットワーク処理部8及び撮像部9を備えている。
タグリーダライタ4は、物体501〜506のタグ501a〜506aに対して情報の読み書きを行う。タグリーダライタ4は、図1に示すように、撮像部9とともに、アーム3に取り付けられている。このタグリーダライタ4は、無線でタグ501a〜506aに対して情報の読み書きをするように構成されている。タグ501a〜506aに対して情報の読み書きをするタイミングは、種々の方法が考えられるが、例えば、一般のICタグ技術が備えている標準的な機能を利用して、タグリーダライタ4から、ある一定の領域内に存在するタグ501a〜506aに対して情報の読み書きをするようにする。よって、タグリーダライタ4からある一定の領域内に複数のタグ(物体)が存在する場合、タグリーダライタ4は、自動的にそれら全てのタグから情報を読み取ることになる。
The robot 1 includes a tag reader / writer 4, a control unit 5, a drive unit 6, an address processing unit 7, a network processing unit 8, and an imaging unit 9, as shown in FIGS.
The tag reader / writer 4 reads and writes information from and to the tags 501a to 506a of the objects 501 to 506. As shown in FIG. 1, the tag reader / writer 4 is attached to the arm 3 together with the imaging unit 9. The tag reader / writer 4 is configured to read / write information from / to the tags 501a to 506a wirelessly. There are various methods for reading and writing information with respect to the tags 501a to 506a. For example, the tag reader / writer 4 uses a standard function provided in a general IC tag technology to provide a certain amount of information. The information is read from and written to the tags 501a to 506a existing in the area. Therefore, when there are a plurality of tags (objects) in a certain area from the tag reader / writer 4, the tag reader / writer 4 automatically reads information from all the tags.

アドレス処理部7は、タグリーダライタ4によりタグ501a〜506aから読み込んだ物体ID情報からアドレス情報を読み出す。
ネットワーク処理部8は、アドレス処理部7が読み出したアドレス情報のサーバアドレス情報に基づいて、情報通信ネットワークNETを介して情報サーバ101にアクセスする。そして、ネットワーク処理部8は、アドレス情報のデータアドレス情報に基づいて、アクセスした情報サーバの所定の記憶領域に記憶されている物体認識用情報OBSを情報通信ネットワークNETを介して読み込む。そして、ネットワーク処理部8は、その物体認識用情報OBSを制御部5に出力する。
The address processing unit 7 reads address information from the object ID information read from the tags 501 a to 506 a by the tag reader / writer 4.
The network processing unit 8 accesses the information server 101 via the information communication network NET based on the server address information of the address information read by the address processing unit 7. Then, based on the data address information of the address information, the network processing unit 8 reads the object recognition information OBS stored in the predetermined storage area of the accessed information server via the information communication network NET. Then, the network processing unit 8 outputs the object recognition information OBS to the control unit 5.

一方、撮像部9は、作業環境を撮像するためのものであり、立体視可能に構成されている。例えば、撮像部9は、ステレオタイプとして2つのCCD(Charge Coupled Device)センサを搭載している。撮像部9は、撮像画像を制御部5に出力する。
制御部5は、種々の処理やロボット1を制御するように構成されている。具体的には、制御部5による処理やロボット1の制御は次のようになる。
On the other hand, the imaging unit 9 is for imaging a work environment and is configured to be stereoscopically viewable. For example, the imaging unit 9 includes two CCD (Charge Coupled Device) sensors as a stereotype. The imaging unit 9 outputs the captured image to the control unit 5.
The control unit 5 is configured to control various processes and the robot 1. Specifically, processing by the control unit 5 and control of the robot 1 are as follows.

制御部5は、撮像部9からの撮像画像と物体認識用情報OBSの幾何学的形状情報とを用いて物体の認識処理、例えばテンプレートマッチング(この場合、物体認識用情報OBSの幾何学的形状情報はテンプレートをなす。)により、撮像画像中の物体がどの物体であるかを特定する。ここで、作業環境には種々の物体が存在しているので、物体の特定では、撮像画像の物体がそのような種々の物体のうちのどの物体かを特定する。通常、撮像
画像中の物体が操作又は作業の対象になるのであり、よって、特定された物体が操作又は作業の対象になる。
The control unit 5 uses the captured image from the imaging unit 9 and the geometric shape information of the object recognition information OBS to perform object recognition processing, for example, template matching (in this case, the geometric shape of the object recognition information OBS). The information forms a template.) By which the object in the captured image is specified. Here, since various objects exist in the work environment, in specifying the object, which of the various objects is the object of the captured image is specified. Usually, an object in a captured image is a target of operation or work, and thus the specified object is a target of operation or work.

前述したように、物体認識用情報OBSは、タグ内の物体ID情報OBに基づいて取得されており、さらに、そのタグから取得される物体ID情報OBは、ロボット1(具体的にはタグリーダライタ4)から一定範囲内にあるタグ(物体)が位置されている場合に、当該一定範囲内にある物体(具体的にはタグ)のタグから得た物体ID情報OBである。
このようなことから、撮像部9により撮像されている物体があり、ロボット1(具体的にはタグリーダライタ4)から一定範囲内にその物体(具体的にはタグ)だけが存在している場合には、当該物体のタグ内の物体ID情報OBに基づいて唯一物体認識用情報OBSを情報サーバ101から取得するようになる。この場合、制御部5は、撮像部9からの撮像画像とその唯一の物体認識用情報OBSの幾何学的形状情報とを用いた認識処理により、撮像画像中の物体を特定することができる。
As described above, the object recognition information OBS is acquired based on the object ID information OB in the tag, and the object ID information OB acquired from the tag is the robot 1 (specifically, tag reader / writer). This is the object ID information OB obtained from the tag of the object (specifically tag) within the certain range when the tag (object) within the certain range is located from 4).
For this reason, there is an object imaged by the imaging unit 9, and only the object (specifically, tag) exists within a certain range from the robot 1 (specifically, tag reader / writer 4). First, the object recognition information OBS is obtained from the information server 101 based on the object ID information OB in the tag of the object. In this case, the control unit 5 can identify an object in the captured image by recognition processing using the captured image from the imaging unit 9 and the geometric shape information of the sole object recognition information OBS.

一方、撮像部9により一つの物体が撮像されているが、ロボット1(具体的にはタグリーダライタ4)から一定範囲内にその撮像されている物体(具体的にはタグ)以外にも複数の物体(具体的にはタグ)が存在している場合には、当該撮像されている物体を含めて複数の物体のタグ内の物体ID情報OBに基づいて、複数の物体認識用情報OBSを情報サーバ101から取得するようになる。この場合、制御部5は、撮像部9からの撮像画像とその複数の物体認識用情報OBSとを用いた認識処理により、撮像画像中の物体を特定することになる。すなわち、制御部5は、撮像画像に対して複数の物体認識用情報OBSを順番でマッチングさせていき、最終的に撮像画像中の物体を特定することになる。   On the other hand, one object is imaged by the imaging unit 9, but there are a plurality of objects other than the object (specifically a tag) being imaged within a certain range from the robot 1 (specifically, the tag reader / writer 4). When an object (specifically, a tag) exists, a plurality of pieces of object recognition information OBS are information based on the object ID information OB in the tags of the plurality of objects including the imaged object. Obtained from the server 101. In this case, the control unit 5 identifies an object in the captured image by recognition processing using the captured image from the imaging unit 9 and the plurality of object recognition information OBS. That is, the control unit 5 sequentially matches the plurality of object recognition information OBS with the captured image, and finally specifies the object in the captured image.

このように、制御部5は、撮像部9からの撮像画像と物体認識用情報OBSとを用いた認識処理により撮像画像中の物体を特定する。
また、前述したように、物体ID情報には、物体の外見的特性であり、かつ少ないデータ量で示すことが可能な情報、例えば物体の色を示す色情報、2次元形状(平面視形状)の情報が含まれている。このようなことから、制御部5は、前述の認識処理に先立って、物体ID情報OBから得た色情報等と撮像部9からの撮像画像とを用いた認識処理を行う。この物体ID情報OBから得た色情報等を用いた認識処理により物体を特定できた場合には、制御部5は、前述の撮像画像と物体認識用情報OBSとを用いた認識処理を行わないようにする。なお、後述するように、物体認識用情報OBSは、作業環境モデルWMの作成に必要な情報であるので、物体ID情報OBに基づいた情報サーバからの物体認識用情報OBSの読み込みは行うようにする。
As described above, the control unit 5 identifies the object in the captured image by the recognition process using the captured image from the imaging unit 9 and the object recognition information OBS.
Further, as described above, the object ID information includes information that is an appearance characteristic of the object and can be represented with a small amount of data, for example, color information indicating the color of the object, a two-dimensional shape (planar shape). Information is included. For this reason, the control unit 5 performs a recognition process using the color information obtained from the object ID information OB and the captured image from the imaging unit 9 prior to the above-described recognition process. When the object can be specified by the recognition process using the color information obtained from the object ID information OB, the control unit 5 does not perform the recognition process using the captured image and the object recognition information OBS. Like that. As will be described later, since the object recognition information OBS is information necessary for creating the work environment model WM, the object recognition information OBS is read from the information server based on the object ID information OB. To do.

そして、物体認識用情報OBS又は色情報等で特定した物体501〜506に対する操作や作業をするために、制御部5には、図3に示すように、ロボット1を制御する制御プログラムPGと作業環境モデルWMとが格納されている。
作業環境モデルWMは、物体の操作に必要な情報として構築されている。物体認識用情報OBSは前述したように物体の幾何学的形状を含んでおり、この物体認識用情報OBS内の幾何学的形状に基づいて、物体を操作するための作業環境モデルWMが構築されている。すなわち、物体認識用情報OBSは、物体を認識するための情報を構成するとともに、認識した物体を操作するための情報(物体操作用情報)をも構成しているのである。このようなことから、このように物体認識用情報OBSが物体を操作するための情報として使用されることを前提として、物体認識用情報OBSに、幾何学的形状等の情報の他に、重量等の他の物体固有の情報や、物体に対する操作内容や作業内容を示す情報を含めておいてもよい。ここで、操作内容とは、物体を把持する操作等であり、また、作業内容とは、物体を所定の場所に搬送する等である。例えば、物体を把持する操作情報としては、物体の持ち方、持つ場所の情報が挙げられる。
Then, in order to perform operations and work on the objects 501 to 506 specified by the object recognition information OBS or color information, the control unit 5 includes a control program PG for controlling the robot 1 and work as shown in FIG. An environmental model WM is stored.
The work environment model WM is constructed as information necessary for operating an object. The object recognition information OBS includes the geometric shape of the object as described above, and a work environment model WM for operating the object is constructed based on the geometric shape in the object recognition information OBS. ing. That is, the object recognition information OBS constitutes information for recognizing an object, and also constitutes information for operating the recognized object (object operation information). For this reason, on the premise that the object recognition information OBS is used as information for manipulating the object in this way, the object recognition information OBS has a weight in addition to information such as a geometric shape. Other information unique to the object, such as information indicating the operation content or work content of the object may be included. Here, the operation content is an operation of gripping an object and the like, and the work content is an operation of transporting an object to a predetermined place. For example, the operation information for gripping an object includes information on how to hold the object and where it is held.

なお、ここで制御部5が保持している作業環境モデルWMは、予めある程度構築されたデータからなり、物体認識用情報OBSに基づいて完成或いは更新するようなものであってもよい。
制御プログラムPGは、作業計画アルゴリズムにより構築されている。作業計画アルゴリズムは、作業環境モデルWMに基づいてロボット1による作業手順を示す作業計画を作成するためのアルゴリズムからなる。この制御するプログラムPGは、ロボット1が動作するための情報或いはプログラムであり、ロボット1の設計者によって決定或いは設計されて、予め制御部5に格納されている。
Here, the work environment model WM held by the control unit 5 is made up of data constructed to some extent in advance, and may be completed or updated based on the object recognition information OBS.
The control program PG is constructed by a work plan algorithm. The work plan algorithm includes an algorithm for creating a work plan indicating a work procedure by the robot 1 based on the work environment model WM. The program PG to be controlled is information or a program for operating the robot 1, is determined or designed by the designer of the robot 1, and is stored in the control unit 5 in advance.

制御部5は、制御プログラムPGにより、作業環境モデルWMに基づいてロボット1の作業計画を作成する。ここで、制御プログラムPGによる作業環境モデルWMに基づいたロボット1の作業計画の作成は、例えば従来の作業計画作成技術を活用して行う。すなわち、制御部5は、ロボット1の大きさ、作業環境モデルWMを参照して、ロボット1と物体501〜506との干渉チェックを行う等数理的演算処理行い、作業計画を作成する。作成した作業計画は、作業を実現するために、どのように駆動部6を制御すればよいかを示す情報(行動制御)からなる。制御部5は、例えば、幾何学的形状や重量に基づいて物体501〜506における操作位置(持つ位置等)を決定する。ここで、駆動部6は、移動台車2やアーム3等によって構成されている。   The control unit 5 creates a work plan for the robot 1 based on the work environment model WM using the control program PG. Here, the creation of the work plan of the robot 1 based on the work environment model WM by the control program PG is performed using, for example, a conventional work plan creation technique. That is, the control unit 5 refers to the size of the robot 1 and the work environment model WM, performs mathematical arithmetic processing such as checking the interference between the robot 1 and the objects 501 to 506, and creates a work plan. The created work plan includes information (behavior control) indicating how to control the drive unit 6 in order to realize the work. For example, the control unit 5 determines an operation position (position, etc.) in the objects 501 to 506 based on the geometric shape and weight. Here, the drive part 6 is comprised by the mobile trolley 2, the arm 3, etc. FIG.

制御部5は、作業計画に基づいて制御信号を駆動部6に出力して、駆動部6を制御する。
これにより、ロボット1は、自律的行動により、移動し、或いは物体501〜506に対する操作や作業を行う。具体的には、ロボット1は、物体501〜506を把持して、所定の場所に搬送する。
また、ロボット1は、場合によっては、物体認識用情報OBSを更新する処理を行う。
ロボット1は作業計画に基づいて自律的行動をするが、ロボット1が現実の物体501〜506とで誤差が生じた動作をしてしまう場合がある。例えば、物体の固有情報が変化する場合がある。例えば、経時的に、物体の形状や重量が変化したりする。このように物体の固有情報が変化した場合でも、情報サーバ101から得た当該物体認識用情報OBSに基づいて作業計画を作成してしまったのでは、ロボット1は、適切な移動や物体501〜506に対して適切な作業ができなくなり、すなわち現実の物体501〜506とで誤差が生じた動作をしてしまう。
The control unit 5 controls the drive unit 6 by outputting a control signal to the drive unit 6 based on the work plan.
Thereby, the robot 1 moves by an autonomous action or performs an operation or work on the objects 501 to 506. Specifically, the robot 1 holds the objects 501 to 506 and conveys them to a predetermined place.
In some cases, the robot 1 performs a process of updating the object recognition information OBS.
Although the robot 1 performs autonomous behavior based on the work plan, the robot 1 may perform an operation in which an error occurs between the actual objects 501 to 506. For example, the unique information of the object may change. For example, the shape and weight of the object change with time. Even when the unique information of the object changes in this way, if the work plan is created based on the object recognition information OBS obtained from the information server 101, the robot 1 performs appropriate movement or the objects 501 to 501. An appropriate work cannot be performed on the object 506, that is, an operation with an error occurs between the actual objects 501 to 506.

このようなことから、ロボット1は、現実の物体501〜506とで誤差を生じた動作を検出した場合、すなわち物体501〜506の形状等の物体501〜506の固有情報の変化を検出した場合、物体認識用情報OBSを更新する。この場合、ネットワーク処理部8により、情報サーバ101にアクセスして、当該情報サーバ101に格納されている物体認識用情報OBSを更新する。この場合、情報の更新は、更新可能な者を限ったり、物体操作用情報OB内の所定の情報部分だけにしたり、一定の制限の下で行われるのが好ましい。また、同時に、制御部5は、自己が保持している物体認識用情報OBSや作業環境モデルWMも更新する。   For this reason, when the robot 1 detects an operation that causes an error with the real objects 501 to 506, that is, when it detects a change in the unique information of the objects 501 to 506 such as the shapes of the objects 501 to 506. The object recognition information OBS is updated. In this case, the network processing unit 8 accesses the information server 101 and updates the object recognition information OBS stored in the information server 101. In this case, it is preferable that the information is updated under a certain restriction such as limiting the persons who can update the information, making only a predetermined information portion in the object operation information OB. At the same time, the control unit 5 updates the object recognition information OBS and the work environment model WM held by itself.

また、ロボット1が、前記認識処理により特定した物体の情報、例えば物体の位置情報を当該物体のタグに書き込むようにしてもよい。
これにより、ロボット1が物体に対する操作や作業をするような場合、タグに書き込まれている位置情報を用いて行うことができる。ここで、例えば、タグに最初から物体の位置情報を格納しておくことも考えられる。しかし、物体が移動する場合には、現実の物体の位置(最新の位置)とタグ内の位置情報とが異なったものになってしまう。このようなことから、認識処理により特定した物体の位置情報をタグに書き込むようにすることで、ロボット1は、最近の位置情報に基づいて、物体を特定して、当該物体に対する操作や作
業を行うことができる。この場合、ロボット1が絶対位置を認識できる手段を備えていることが前提であり、ロボットは、その手段により位置情報から物体の位置を特定することができる。
Further, the robot 1 may write information on the object specified by the recognition processing, for example, position information of the object, on the tag of the object.
As a result, when the robot 1 performs an operation or an operation on an object, the position information written in the tag can be used. Here, for example, it may be possible to store the position information of the object in the tag from the beginning. However, when the object moves, the position of the actual object (latest position) is different from the position information in the tag. For this reason, by writing the position information of the object identified by the recognition process in the tag, the robot 1 identifies the object based on the latest position information, and performs operations and work on the object. It can be carried out. In this case, it is a premise that the robot 1 includes a means capable of recognizing the absolute position, and the robot can specify the position of the object from the position information by the means.

また、タグへの位置情報の書き込みについては、物体特定手段としての制御部5が特定した物体の情報である物体の位置情報を、物体情報書き込み手段としてのタグリーダライタ4がタグに書き込んでいることといえる。
例えば、タグへの位置情報の書き込み方としては、当該タグ内に格納されている物体ID情報OBに付加するようにする。これにより、ロボット1は、通常動作として、タグリーダライタ4によりタグ内の物体ID情報OBを読み取りに行くが、この際に、当該物体ID情報OBに位置情報が付加されていることを検出した場合には、この位置情報を優先的に扱うようにする。すなわち、ロボット1は、物体認識用情報OBSを用いた認識処理を行うことなく、位置情報に基づいて物体を特定する。
As for the writing of the position information to the tag, the tag reader / writer 4 as the object information writing means writes the object position information, which is the object information specified by the control unit 5 as the object specifying means, into the tag. It can be said.
For example, as the method of writing the position information on the tag, it is added to the object ID information OB stored in the tag. As a result, the robot 1 goes to read the object ID information OB in the tag by the tag reader / writer 4 as a normal operation. At this time, the robot 1 detects that position information is added to the object ID information OB. Therefore, this position information is preferentially handled. That is, the robot 1 specifies an object based on the position information without performing recognition processing using the object recognition information OBS.

また、前述したようにタグリーダライタ4がタグ501a〜506aから情報を読み取ることができる距離の範囲は一定であり、また、撮像部9による撮像範囲は一定であるので、ロボット1が物体501〜506に対する操作や作業をする場合には、ロボット1が物体501〜506にある程度近づく必要がある。このようなことから、ロボット1には、作業環境W内でのおおまかな走行経路の情報が基本動作情報として予め格納されており、ロボット1は、この走行経路の情報に基づいて作業環境W内を移動する。例えば、走行経路の情報は、作業環境モデルWMに予め格納されている。なお、ロボット1が予め保持している基本動作情報は、走行経路の情報であることに限定されるものではなく、他の基本動作を示す情報であってもよい。   Further, as described above, the distance range in which the tag reader / writer 4 can read information from the tags 501a to 506a is constant, and the imaging range by the imaging unit 9 is constant, so that the robot 1 can detect the objects 501 to 506. When operating or working on the robot 1, the robot 1 needs to approach the objects 501 to 506 to some extent. For this reason, the robot 1 preliminarily stores information on a rough travel route in the work environment W as basic operation information, and the robot 1 stores the information in the work environment W based on the travel route information. To move. For example, the travel route information is stored in advance in the work environment model WM. Note that the basic motion information held in advance by the robot 1 is not limited to the travel route information, and may be information indicating other basic motions.

次に図4を用いて一連の処理手順を示す。
先ず、必要データを作成等する(ステップS1)。具体的には、物体の製造者等が、物体認識用情報OBSを作成し、作成した物体認識用情報OBSを情報サーバ101に格納するとともに、その情報サーバ101に格納した物体認識用情報OBSに情報通信ネットワークNETを介してアクセスするための物体ID情報OB(アドレス情報)を物体501〜506のタグ501a〜506aに書き込む(格納する)。また、ロボット1の設計者が作業計画アルゴリズム(制御プログラムPG)を作成し、その作成した作業計画アルゴリズム(制御プログラムPG)を制御部5に書き込む(格納する)。
Next, a series of processing procedures will be described with reference to FIG.
First, necessary data is created (step S1). Specifically, an object manufacturer or the like creates object recognition information OBS, stores the created object recognition information OBS in the information server 101, and stores the created object recognition information OBS in the object recognition information OBS stored in the information server 101. Object ID information OB (address information) for access via the information communication network NET is written (stored) in the tags 501a to 506a of the objects 501 to 506. The designer of the robot 1 creates a work plan algorithm (control program PG), and writes (stores) the created work plan algorithm (control program PG) in the control unit 5.

続いて、ロボット1は、タグリーダライタ4により、物体501〜506のタグ501a〜506aに書き込まれている物体ID情報OBのアドレス情報を読み込む(ステップS2)。このとき、物体ID情報OBの読み込み対象になるタグは、ロボット1から一定領域内に存在する物体のタグである。
続いて、ロボット1は、アドレス処理部7及びネットワーク処理部8により、アドレス情報に基づいて、情報通信ネットワークNETを介して情報サーバ101から物体認識用情報OBSを読み込む(ステップS3)。
Subsequently, the robot 1 reads the address information of the object ID information OB written in the tags 501a to 506a of the objects 501 to 506 by the tag reader / writer 4 (step S2). At this time, a tag to be read of the object ID information OB is a tag of an object existing in a certain area from the robot 1.
Subsequently, the robot 1 reads the object recognition information OBS from the information server 101 via the information communication network NET by the address processing unit 7 and the network processing unit 8 based on the address information (step S3).

続いて、ロボット1は対象物体を特定する(ステップS4)。図5は、その処理内容を示す。
先ず、制御部5は、撮像部9が得た撮像画像に基づいて、ロボット1本体のおおまかな位置決めを行う(ステップS11)。例えば、制御部5は、撮像部9の焦点が対象物体に合うように、移動台車2を制御してロボット1を移動させる。
続いて、制御部5は、タグリーダライタ4が対象物体の近くに位置されるように、駆動部6のアーム3を駆動させる(ステップS12)。
続いて、制御部5は、情報サーバ101から読み込んだ物体認識用情報OBSに基づいて対象物体を特定する(ステップS13)。具体的には、制御部5は、撮像部9からの撮
像画像と物体認識用情報OBSの幾何学的形状情報とを用いた認識処理により物体を特定する。
Subsequently, the robot 1 specifies a target object (step S4). FIG. 5 shows the processing contents.
First, the control unit 5 roughly positions the main body of the robot 1 based on the captured image obtained by the imaging unit 9 (step S11). For example, the control unit 5 controls the moving carriage 2 to move the robot 1 so that the imaging unit 9 is focused on the target object.
Subsequently, the control unit 5 drives the arm 3 of the drive unit 6 so that the tag reader / writer 4 is positioned near the target object (step S12).
Subsequently, the control unit 5 identifies a target object based on the object recognition information OBS read from the information server 101 (step S13). Specifically, the control unit 5 identifies an object by recognition processing using the captured image from the imaging unit 9 and the geometric shape information of the object recognition information OBS.

このように、ロボット1は、対象物体に近づいていくとともに、撮像部9から得た撮像画像と物体認識用情報OBSとを用いた認識処理により最終的にその物体がなんであるかを特定する。
図6は、このような処理をした際のロボット1の様子を示す。この図6に示すように、ロボット1は、物体501〜506のタグ501a〜506a内のアドレス情報に基づいて情報サーバ101から物体認識用情報OBSを読み込み、その読み込んだ物体認識用情報OBSに基づいて物体を特定する。
As described above, the robot 1 approaches the target object, and finally identifies what the object is by the recognition process using the captured image obtained from the imaging unit 9 and the object recognition information OBS.
FIG. 6 shows a state of the robot 1 when such processing is performed. As shown in FIG. 6, the robot 1 reads the object recognition information OBS from the information server 101 based on the address information in the tags 501a to 506a of the objects 501 to 506, and based on the read object recognition information OBS. To identify the object.

このように物体を特定した後、ロボット1は、制御部5により、物体認識用情報OBSに基づいて作業環境モデルWMを作成或いは更新する(ステップS5)。
続いて、ロボット1は、制御部5により、制御プログラム(作業計画アルゴリズム)PGに基づいて、作業環境モデルWMを参照して、作業計画を作成する(ステップS6)。そして、ロボット1は、その作業計画に基づいて自律的に行動する(ステップS7)。ここで、ロボット1は、自律的行動により、移動し、或いは物体に対する操作や作業を行う。
After specifying the object in this way, the robot 1 creates or updates the work environment model WM based on the object recognition information OBS by the control unit 5 (step S5).
Subsequently, the robot 1 creates a work plan by the control unit 5 with reference to the work environment model WM based on the control program (work plan algorithm) PG (step S6). Then, the robot 1 acts autonomously based on the work plan (step S7). Here, the robot 1 moves by autonomous behavior or performs an operation or work on an object.

また、ロボット1は、制御部5により、物体認識用情報OBSの更新が必要か否かを判定する(ステップS8)。すなわち、制御部5は、ロボット1が現実の物体とで誤差が生じた動作をしたかを判定する。
ここで、制御部5は、ロボット1が現実の物体とで誤差が生じた動作をした場合、物体認識用情報OBSの更新が必要であるとして、情報サーバ101内の物体認識用情報OBSの更新及び作業環境モデルの更新を行う(ステップS8)。情報サーバ101内の物体認識用情報OBSの更新については、ネットワーク処理部8により、情報サーバ101にアクセスして、所定の記憶領域に記憶されている物体認識用情報OBSを更新する。
Further, the robot 1 determines whether or not the object recognition information OBS needs to be updated by the control unit 5 (step S8). That is, the control unit 5 determines whether the robot 1 has performed an operation in which an error has occurred with an actual object.
Here, the control unit 5 updates the object recognition information OBS in the information server 101 on the assumption that the object recognition information OBS needs to be updated when the robot 1 performs an operation in which an error occurs with a real object. And the work environment model is updated (step S8). For updating the object recognition information OBS in the information server 101, the network processing unit 8 accesses the information server 101 and updates the object recognition information OBS stored in a predetermined storage area.

一方、制御部5は、ロボット1が現実の物体501〜506とで誤差が生じた動作をしなかった場合、物体認識用情報OBSの更新が必要でないとして、自律的行動に関する処理を終了する。
ここで例として、ロボット1から一定範囲内に複数の物体がある場合を考えてみる。
この場合、タグリーダライタ4は、当該複数の物体のタグそれぞれから物体ID情報OBを読み込むことになる(ステップS2)。この場合、その複数の物体の中には、撮像部9により撮像されている物体もあり、また、撮像部9により撮像されてはいないが、タグの物体ID情報だけが読み込まれている物体もある。
On the other hand, when the robot 1 does not perform an operation in which an error has occurred with the actual objects 501 to 506, the control unit 5 ends the process regarding autonomous behavior, assuming that it is not necessary to update the object recognition information OBS.
Here, as an example, consider a case where there are a plurality of objects within a certain range from the robot 1.
In this case, the tag reader / writer 4 reads the object ID information OB from each of the tags of the plurality of objects (step S2). In this case, among the plurality of objects, there are objects that are imaged by the imaging unit 9, and there are also objects that are not imaged by the imaging unit 9 but only the object ID information of the tag is read. is there.

そして、ロボット1は、情報通信ネットワークNETを介して情報サーバ101から各物体ID情報OBに対応する複数の物体認識用情報OBSを読み込む(ステップS3)。そして、ロボット1は、各物体認識用情報OBSによる認識処理により物体を特定する(ステップS4)。ロボット1は、物体を特定した後、物体認識用情報OBSに基づいて作業環境モデルWMを作成或いは更新し(ステップS5)、続いて作業環境モデルWMを参照して、作業計画を作成し(ステップS6)、その作業計画に基づいて自律的に行動する(ステップS7)。   Then, the robot 1 reads a plurality of object recognition information OBS corresponding to each object ID information OB from the information server 101 via the information communication network NET (step S3). Then, the robot 1 identifies an object by recognition processing using each object recognition information OBS (step S4). After identifying the object, the robot 1 creates or updates the work environment model WM based on the object recognition information OBS (step S5), and then creates a work plan by referring to the work environment model WM (step S5). S6), act autonomously based on the work plan (step S7).

以上の処理或いは動作による効果を説明する。
前述したように、ロボット1は、タグリーダライタ4によりタグ501a〜506aに書き込まれている物体ID情報OBのアドレス情報を読み込み、そのアドレス情報に基づいて、情報サーバ101から物体認識用情報OBSを読み込み、その物体認識用情報OBSと撮像部9の撮像画像とを用いた認識処理により物体を特定している。このように、ロ
ボット1は、最適な物体認識用情報OBSを用いて物体を特定している。
The effect by the above process or operation | movement is demonstrated.
As described above, the robot 1 reads the address information of the object ID information OB written in the tags 501a to 506a by the tag reader / writer 4, and reads the object recognition information OBS from the information server 101 based on the address information. The object is identified by the recognition process using the object recognition information OBS and the captured image of the imaging unit 9. As described above, the robot 1 identifies an object using the optimal object recognition information OBS.

従来のテンプレートマッチングでは、物体認識用情報OBSのようなテンプレートを特定するのに時間がかかり、さらにそのように特定したテンプレートも最適なものかも定かではなかった。
また、例えば、タグに格納されている情報だけで物体を特定しようとしても、タグリーダライタは一定範囲に存在するタグに格納されている情報(物体の形状等の固有情報)を読み込んでいるだけなので、当該タグに付されている物体の位置(ロボットに対する相対位置或いは方向)の特定はできない。その一方で、撮像画像だけで物体を特定しようとしても、前述したような理由から物体を特定することが困難となる。
In the conventional template matching, it takes time to specify a template such as the object recognition information OBS, and it is not certain whether the template specified as such is optimal.
In addition, for example, even if an object is specified only by information stored in a tag, the tag reader / writer only reads information (specific information such as the shape of the object) stored in a tag existing in a certain range. The position of the object attached to the tag (relative position or direction relative to the robot) cannot be specified. On the other hand, even if an object is specified only by a captured image, it is difficult to specify the object for the reasons described above.

しかし、タグリーダライタ4(ロボット1)から一定範囲内にある物体(タグ)に対応する数分だけ物体認識用情報OBSを情報サーバ101から読み込んできて、それら物体認識用情報OBSと撮像画像情報とをマッチングさせるだけで物体を特定できるようになる。
このように、ロボット1は、簡単な処理により確実に物体を特定することができる。この結果、ロボット1は、物体に対して最適な操作や作業を行うことができるようになる。
また、前述したように、ロボット1は、情報サーバ101から読み込んだ物体認識用情報(物体操作用情報)OBSに基づいて作業環境モデルMWを作成するとともに、その作業環境モデルMWに基づいて作業計画を生成している。そして、ロボット1は、その作業計画に基づいて物体501〜506に対して、当該物体501〜506に要求されている所望の操作や作業を行っている。
However, the object recognition information OBS can be read from the information server 101 by the number corresponding to the object (tag) within a certain range from the tag reader / writer 4 (robot 1), and the object recognition information OBS, the captured image information, It becomes possible to specify the object simply by matching.
Thus, the robot 1 can specify an object reliably by a simple process. As a result, the robot 1 can perform an optimal operation and work on the object.
Further, as described above, the robot 1 creates the work environment model MW based on the object recognition information (object operation information) OBS read from the information server 101, and also creates a work plan based on the work environment model MW. Is generated. And the robot 1 is performing the desired operation and operation | work requested | required of the said objects 501-506 with respect to the objects 501-506 based on the work plan.

ここで、作業環境モデルMWを作成するための物体認識用情報(物体操作用情報)OBSの作成は、物体501〜506の製造者、その製造者から委託をうけた事業者等の物体501〜506の製造等に携わる者によって行われている。
従来においては、このような物体認識用情報(物体操作用情報)OBSに対応する情報をロボットの行動制御を規定するプログラムの格納時等において、ロボットに予め格納しておく必要があり、さらに、その情報の作成は、ロボットの設計者等のロボットの行動制御を設計する者自身が行っていた。
Here, the object recognition information (object operation information) OBS for creating the work environment model MW is created by manufacturing the objects 501 to 506 and the objects 501 to 501 such as a business operator entrusted by the manufacturer. It is carried out by those who are involved in the manufacture of 506 and the like.
Conventionally, it is necessary to store information corresponding to such object recognition information (object operation information) OBS in the robot in advance when storing a program for defining behavior control of the robot, The information is created by the person who designs the behavior control of the robot such as the robot designer.

しかし、ロボットが扱う物体は作業環境に応じて無限に存在し、それをロボットで処理しようと考えた場合、ロボットの設計者等がロボットの作業環境を観察し、それを解釈し、その特徴部分を判断し、さらに、その判断に基づいて作業環境の情報を作成するのは困難である。
これに対して、物体認識用情報(物体操作用情報)OBSの作成は、物体501〜506の製造者、その製造者から委託をうけた事業者等の物体501〜506の製造等に携わる者によって行われている。すなわち、物体501〜506について詳細を知っており、専門知識を有する者が、物体操作用情報OBを作成している。
However, there are an infinite number of objects handled by the robot, and when it is considered to be processed by the robot, the robot designers observe the robot's work environment, interpret it, In addition, it is difficult to create work environment information based on the determination.
On the other hand, the object recognition information (object operation information) OBS is created by the manufacturer of the objects 501 to 506 and the person involved in the manufacture of the objects 501 to 506 such as a business contracted by the manufacturer. Has been done by. That is, a person who knows details about the objects 501 to 506 and has expert knowledge creates the object operation information OB.

これにより、ロボットの設計者等に代わって物体501〜506の製造者が物体認識用情報(物体操作用情報)OBSを作成することで、ロボットの設計者等の負担を軽減することができる。さらに、物体について詳細を知っており、専門知識を有する者が物体認識用情報(物体操作用情報)OBSを作成することで、物体の固有情報を正確に示す物体認識用情報(物体操作用情報)OBSを作成することができる。これにより、ロボット1が物体を正確に把持する等、ロボット1が物体を正確に処理できるようになる。   As a result, the manufacturer of the objects 501 to 506 creates the object recognition information (object operation information) OBS on behalf of the robot designer or the like, thereby reducing the burden on the robot designer or the like. Further, the object recognition information (object operation information) that accurately shows the unique information of the object by creating the object recognition information (object operation information) OBS by a person who knows details about the object and has expertise. ) OBS can be created. As a result, the robot 1 can accurately process the object such as the robot 1 accurately grasping the object.

次に、ロボットが複数の物体特定用装置の物体特定結果をも参照して、作業環境に存在する物体を特定するシステムを説明する。
図7は、そのシステムの構成を示す。
このシステムでは、情報通信ネットワークNET上に複数(この例では6台)の物体特定用装置201,202,203,204,205,206を接続して、ロボット1は、これら物体特定用装置201,202,203,204,205,206の物体特定結果をも得て、作業環境に存在する物体501〜506を最終的に特定している。
Next, a system will be described in which a robot identifies objects existing in a work environment with reference to object identification results of a plurality of object identification devices.
FIG. 7 shows the configuration of the system.
In this system, a plurality of (six in this example) object specifying devices 201, 202, 203, 204, 205, 206 are connected on the information communication network NET, and the robot 1 is connected to these object specifying devices 201, The object identification results 202, 203, 204, 205, and 206 are also obtained, and the objects 501 to 506 existing in the work environment are finally identified.

物体特定用装置201〜206は、ロボット1の環境を監視して監視情報を得る監視装置をなし、図7及び図8に示すように、タグリーダライタ211、撮像部212、アドレス処理部213、ネットワーク処理部214及び処理部215を備えている。この物体特定用装置201〜206は、作業環境の所定位置に固定されて設定されている。
タグリーダライタ211、撮像部212、アドレス処理部213及びネットワーク処理部214は、ロボット1が備えるものと同様な機能を有している。
The object identifying devices 201 to 206 are monitoring devices that monitor the environment of the robot 1 and obtain monitoring information. As shown in FIGS. 7 and 8, the tag reader / writer 211, the imaging unit 212, the address processing unit 213, the network A processing unit 214 and a processing unit 215 are provided. The object specifying devices 201 to 206 are fixedly set at predetermined positions in the work environment.
The tag reader / writer 211, the imaging unit 212, the address processing unit 213, and the network processing unit 214 have the same functions as those provided in the robot 1.

すなわち、タグリーダライタ211は、無線により物体のタグに対する情報の読み書きを行う。このとき、タグリーダライタ211は一定の領域内に存在するタグ501a〜506a(物体501〜506)に対して情報の読み書きをする。
アドレス処理部213は、タグリーダライタ211によりタグ501a〜506aから読み込んだ物体ID情報OBから、情報サーバ101にアクセスするためのアドレス情報を読み出す。
That is, the tag reader / writer 211 reads and writes information on the tag of the object wirelessly. At this time, the tag reader / writer 211 reads / writes information from / to the tags 501a to 506a (objects 501 to 506) existing in a certain area.
The address processing unit 213 reads address information for accessing the information server 101 from the object ID information OB read from the tags 501a to 506a by the tag reader / writer 211.

ネットワーク処理部214は、アドレス処理部211が読み出したアドレス情報のサーバアドレス情報に基づいて、情報通信ネットワークNETを介して情報サーバ101にアクセスする。そして、ネットワーク処理部214は、アドレス情報に基づいて、アクセスした情報サーバ101の所定の記憶領域に記憶されている物体操作用情報OBSを情報通信ネットワークNETを介して読み込む。ネットワーク処理部214は、情報サーバ101から読み込んだ物体認識用情報OBSを処理部215に出力する。   The network processing unit 214 accesses the information server 101 via the information communication network NET based on the server address information of the address information read by the address processing unit 211. Then, based on the address information, the network processing unit 214 reads the object manipulation information OBS stored in the predetermined storage area of the accessed information server 101 via the information communication network NET. The network processing unit 214 outputs the object recognition information OBS read from the information server 101 to the processing unit 215.

また、ネットワーク処理部214は、種々の情報を情報通信ネットワークNETを介してロボット1に送信するようにも構成されている。
ここで、アドレス処理部213及びネットワーク処理部214は、タグリーダライタ211が読み取った物体ID情報OBに基づいて、情報サーバ101から物体認識用情報OBSを読み込む通信手段(第2の通信手段)を構成している。
撮像部212は、ロボット2の作業環境を撮像するためのものであり、立体視可能に構成されている。撮像部212は、撮像画像を処理部215に出力する。
処理部215は撮像部212からの撮像画像と物体認識用情報OBSの幾何学的形状情報とを用いた物体の認識処理、例えばテンプレートマッチング(この場合、物体認識用情報OBSの幾何学的形状情報はテンプレートをなす。)により、物体501〜506を特定している。
The network processing unit 214 is also configured to transmit various information to the robot 1 via the information communication network NET.
Here, the address processing unit 213 and the network processing unit 214 constitute communication means (second communication means) for reading the object recognition information OBS from the information server 101 based on the object ID information OB read by the tag reader / writer 211. doing.
The imaging unit 212 is for imaging the work environment of the robot 2 and is configured to be stereoscopically viewable. The imaging unit 212 outputs the captured image to the processing unit 215.
The processing unit 215 performs object recognition processing using the captured image from the imaging unit 212 and the geometric shape information of the object recognition information OBS, for example, template matching (in this case, the geometric shape information of the object recognition information OBS). Is a template.) Identifies the objects 501 to 506.

ここで、処理部215は、物体ID情報OBに色情報や2次元形状情報が含まれていることから、これを利用して、ロボット1の制御部5と同様な処理を行う。すなわち、処理部215は、前述の認識処理に先立って、物体ID情報OBから得た色情報等と撮像部212からの撮像画像とを用いた認識処理を行う。この物体ID情報OBから得た色情報等を用いた認識処理により物体を特定できた場合には、処理部215は、撮像画像と物体認識用情報OBSとを用いた認識処理を行わないようにする。   Here, since the object ID information OB includes color information and two-dimensional shape information, the processing unit 215 performs processing similar to that of the control unit 5 of the robot 1 using this. That is, the processing unit 215 performs recognition processing using color information obtained from the object ID information OB and the captured image from the imaging unit 212 prior to the above-described recognition processing. When the object can be identified by the recognition process using the color information obtained from the object ID information OB, the processing unit 215 does not perform the recognition process using the captured image and the object recognition information OBS. To do.

そして、処理部215は、物体認識用情報OBS又は物体ID情報の色情報等に基づいて得た監視結果である物体特定結果を情報通信ネットワークNETを介してロボット1に送信する。具体的には、処理部215は、ネットワーク処理部214に物体特定結果を出力して、ネットワーク処理部214は、その物体特定結果を情報通信ネットワークNETを介してロボット1に送信する。ここで、物体特定用装置201〜206とロボット1と
の間を通信可能に接続する情報通信ネットワークNETは例えばLAN(Local Area Network)によって構成されている。また、物体特定結果は例えば物体の位置情報であり、処理部215は、その物体の位置情報に物体ID情報を添付し、物体特定結果として、ロボット1に送信している。
Then, the processing unit 215 transmits an object identification result, which is a monitoring result obtained based on the object recognition information OBS or the color information of the object ID information, to the robot 1 via the information communication network NET. Specifically, the processing unit 215 outputs the object specifying result to the network processing unit 214, and the network processing unit 214 transmits the object specifying result to the robot 1 via the information communication network NET. Here, the information communication network NET that connects the object specifying devices 201 to 206 and the robot 1 so as to be communicable is constituted by, for example, a LAN (Local Area Network). Further, the object specifying result is, for example, position information of the object, and the processing unit 215 attaches the object ID information to the position information of the object and transmits it to the robot 1 as the object specifying result.

ここで、処理部215と前記ネットワーク処理部214とは、前記通信手段の機能により読み込んだ物体認識用情報OBSと撮像部212が得た撮像画像とを用いて物体を特定して、その物体特定結果をロボットに送信する送信手段を構成している。
ロボット1は、ネットワーク処理部214により物体特定用装置201〜206からの物体特定結果を受信する。
Here, the processing unit 215 and the network processing unit 214 specify an object using the object recognition information OBS read by the function of the communication unit and the captured image obtained by the imaging unit 212, and specify the object. A transmission means for transmitting the result to the robot is configured.
The robot 1 receives the object specifying result from the object specifying devices 201 to 206 by the network processing unit 214.

ロボット1では、制御部5が、情報サーバ101から得た物体認識用情報OBSの幾何学的形状情報と撮像部9からの撮像画像とを用いた物体の認識処理により、作業対象となる物体501〜506を特定している。その一方で、制御部5は、物体特定用装置201〜206の物体特定結果に基づいて物体501〜506を特定する。すなわち、制御部5は、独自に物体501〜506を特定するとともに、物体特定用装置201〜206の物体特定結果に基づく物体501〜506の特定も行う。   In the robot 1, the control unit 5 performs an object recognition process using the geometric shape information of the object recognition information OBS obtained from the information server 101 and the captured image from the imaging unit 9, and the object 501 to be a work target. ˜506 is specified. On the other hand, the control unit 5 specifies the objects 501 to 506 based on the object specifying results of the object specifying devices 201 to 206. That is, the control unit 5 uniquely specifies the objects 501 to 506 and also specifies the objects 501 to 506 based on the object specifying results of the object specifying devices 201 to 206.

次に一連の処理手順を示す。
ロボット1の処理や当該ロボット1と情報サーバ101との間の処理については、前記図4に示した処理内容と同じである。
一方、物体特定用装置201〜206は、図9に示すような処理を行う。
先ず、物体特定用装置201〜206は、タグリーダライタ211により物体501〜506のタグ501a〜506aに書き込まれている物体ID情報OBのアドレス情報を読み込む(ステップS21)。このとき、物体ID情報OBの読み込み対象になるタグは、ロボット1から一定領域内に存在する物体のタグである。
Next, a series of processing procedures will be shown.
The processing of the robot 1 and the processing between the robot 1 and the information server 101 are the same as the processing contents shown in FIG.
On the other hand, the object identifying devices 201 to 206 perform processing as shown in FIG.
First, the object identifying devices 201 to 206 read the address information of the object ID information OB written in the tags 501a to 506a of the objects 501 to 506 by the tag reader / writer 211 (step S21). At this time, a tag to be read of the object ID information OB is a tag of an object existing in a certain area from the robot 1.

続いて、物体特定用装置201〜206は、アドレス処理部213及びネットワーク処理部214により、アドレス情報に基づいて、情報通信ネットワークNETを介して情報サーバ101から物体認識用情報OBを読み込む(ステップS22)。
続いて、物体特定用装置201〜206は、処理部215により、読み込んだ物体認識用情報OBSに基づいて物体を特定して(ステップS23)、その物体特定結果をロボット1に送信する(ステップS24)。
Subsequently, the object identifying devices 201 to 206 read the object recognition information OB from the information server 101 via the information communication network NET by the address processing unit 213 and the network processing unit 214 based on the address information (step S22). ).
Subsequently, the object specifying devices 201 to 206 specify an object based on the read object recognition information OBS by the processing unit 215 (step S23), and transmit the object specifying result to the robot 1 (step S24). ).

このような物体特定用装置201〜206の処理に対応して、ロボット1は、図10に示すような処理手順により自律的行動をする。
ロボットが自律的行動をする際の処理手順では、図5と図10とを比較するとわかるように、前記ステップS13の処理に替えて、ステップS31の処理を行うようになっている。
すなわち、ステップS31として、ロボット1の制御部5は、直接情報サーバ101から読み込んだ物体認識用情報OBS及び物体特定用装置201〜206の物体特定結果に基づいて物体を特定する。すなわち、ロボット1は、独自に物体501〜506を特定するとともに、物体特定用装置201〜206の物体特定結果に基づく物体501〜506の特定も行っている。
Corresponding to the processing of the object identification devices 201 to 206, the robot 1 performs autonomous behavior according to the processing procedure shown in FIG.
In the processing procedure when the robot performs autonomous action, the processing of step S31 is performed instead of the processing of step S13, as can be seen by comparing FIG. 5 and FIG.
That is, as step S31, the control unit 5 of the robot 1 specifies an object based on the object recognition information OBS directly read from the information server 101 and the object specifying results of the object specifying devices 201 to 206. That is, the robot 1 uniquely identifies the objects 501 to 506 and also identifies the objects 501 to 506 based on the object identification results of the object identifying apparatuses 201 to 206.

図11は、このような処理をする際のロボット1の様子を示す。この図11に示すように、ロボット1は、物体501〜506のタグ501a〜506aのアドレス情報に基づいて情報サーバ101から物体認識用情報OBSを読み込み、その読み込んだ物体認識用情報OBSと物体特定用装置201〜206の物体特定結果とに基づいて物体を特定する。
以上の処理或いは動作による効果を説明する。
前述したように、ロボット1は、物体501〜506のタグ501a〜506aのアドレス情報に基づいて情報サーバ101から物体認識用情報OBSを読み込み、その読み込んだ物体認識用情報OBSと物体特定用装置201〜206の物体特定結果とに基づいて対象物体を特定している。すなわち、ロボット1は、自己の物体特定結果を含めて複数の物体特定結果に基づいて最終的に物体を特定している。これにより、ロボット1は、物体を確実に特定することができる。この結果、ロボット1は、物体に対して最適な操作や作業を行うことができるようになる。
FIG. 11 shows a state of the robot 1 when performing such processing. As shown in FIG. 11, the robot 1 reads the object recognition information OBS from the information server 101 based on the address information of the tags 501a to 506a of the objects 501 to 506, and the read object recognition information OBS and the object identification. The object is specified based on the object specifying result of the devices 201 to 206.
The effect by the above process or operation | movement is demonstrated.
As described above, the robot 1 reads the object recognition information OBS from the information server 101 based on the address information of the tags 501a to 506a of the objects 501 to 506, and the read object recognition information OBS and the object specifying device 201. The target object is identified based on the object identification results of ˜206. That is, the robot 1 finally specifies an object based on a plurality of object specifying results including its own object specifying result. Thereby, the robot 1 can specify an object reliably. As a result, the robot 1 can perform an optimal operation and work on the object.

例えば、撮像部9による撮像範囲には限界がある。例えば、ロボット1が移動したり、アーム3を動作させてしまうと、当初、撮像部9が物体を確実に撮像していたにもかかわらず、焦点が合わなくなる等して撮像部9により物体を確実に撮像することができなくなる場合がある。このような場合でも、物体特定用装置201〜206の物体特定結果を用いることで、ロボット1は、物体を特定できるようになる。特に、本実施の形態のようにアーム3に撮像部9を備えているような場合、撮像部9の操作性は高くなる或いは撮像範囲が広くなるが、物体を操作等するためにアーム3を動かしてしまうと、撮像部9による撮像状況が変化してしまう。このような場合にも、物体特定用装置201〜206の物体特定結果を用いることで、物体を確実に特定できる。   For example, the imaging range by the imaging unit 9 is limited. For example, if the robot 1 moves or moves the arm 3, the imaging unit 9 causes the object to be focused by the imaging unit 9 even though the imaging unit 9 has initially captured the object reliably. In some cases, it is impossible to reliably capture an image. Even in such a case, the robot 1 can specify an object by using the object specifying results of the object specifying apparatuses 201 to 206. In particular, when the arm 3 includes the imaging unit 9 as in the present embodiment, the operability of the imaging unit 9 is increased or the imaging range is widened, but the arm 3 is used to operate an object. If it moves, the imaging condition by the imaging part 9 will change. Even in such a case, the object can be reliably specified by using the object specifying results of the object specifying apparatuses 201 to 206.

また、ロボット1は、物体特定用装置201〜206の物体特定情報により、撮像部9により撮像している以外の物体、すなわち作業環境内に存在する全ての物体を特定することができるようになる。
以上、本発明の実施の形態について説明した。しかし、本発明は、前述の実施の形態として実現されることに限定されるものではない。
すなわち、前述の実施の形態では、処理手段が、操作手段としてのアーム3や移動手段としての移動台車2である場合を説明し、さらにその操作内容や作業内容である処理内容を具体的に説明した。しかし、処理手段や処理内容はこれに限定されないことはいうまでもない。
また、前述の実施の形態では、タグ501a〜506aがRFIDである場合を説明した。しかし、これに限定されないことはいうまでもなく、タグ501a〜506aは無線により情報の読み書きができるものであればよい。
In addition, the robot 1 can specify objects other than those captured by the imaging unit 9, that is, all objects existing in the work environment, based on the object specifying information of the object specifying apparatuses 201 to 206. .
The embodiment of the present invention has been described above. However, the present invention is not limited to being realized as the above-described embodiment.
That is, in the above-described embodiment, the case where the processing means is the arm 3 as the operation means or the mobile carriage 2 as the movement means is described, and further, the operation content and the processing content that is the work content are specifically described. did. However, it goes without saying that the processing means and processing contents are not limited to this.
In the above-described embodiment, the case where the tags 501a to 506a are RFIDs has been described. However, it is needless to say that the present invention is not limited to this, and the tags 501a to 506a only need to be capable of reading and writing information wirelessly.

また、タグリーダライタ4は、タグ501a〜506aに対して情報の読み書きをできるものであればどのようなものでもよい。また、タグ501a〜506aに対して情報を書き込む必要がない場面では、ロボット1は、タグリーダライタ4に代えて、読み取り専用のタグリーダを備えるようにしてもよい。
また、前述の実施の形態では、物体操作用情報OBが、物体の幾何学的形状、色及び重量の情報を含む場合を説明した。しかし、これに限定されないことはいうまでもない。すなわち例えば、物体操作用情報OBが材質の情報を含んでもよい。
The tag reader / writer 4 may be anything as long as it can read / write information from / to the tags 501a to 506a. In a scene where it is not necessary to write information to the tags 501a to 506a, the robot 1 may be provided with a read-only tag reader instead of the tag reader / writer 4.
In the above-described embodiment, the case has been described in which the object operation information OB includes information on the geometric shape, color, and weight of the object. However, it goes without saying that the present invention is not limited to this. That is, for example, the object operation information OB may include material information.

また、物体認識用情報OBSが物体を操作するために必要な情報(物体操作用情報)を示すという側面を考慮して、物体認識用情報OBSは、物体をどのような目的で、どのようにロボットに扱われるかを物体の製造者が期待する内容を示すものであってもよい。また、物体認識用情報OBSの形態は、数値情報、ディジタル情報或いは言語情報として記述可能な形態であればよい。このような記述形態であれば、タグ501a〜506a或いは情報サーバ101〜106に物体認識用情報OBSを書き込むことは、現在の情報工学や計算機工学の技術を活用すれば可能だからである。   Further, in consideration of the aspect that the object recognition information OBS indicates information necessary for manipulating the object (object operation information), the object recognition information OBS is used for what purpose the object is. It may indicate what the object manufacturer expects to be handled by the robot. The form of the object recognition information OBS may be any form that can be described as numerical information, digital information, or language information. This is because it is possible to write the object recognition information OBS in the tags 501a to 506a or the information servers 101 to 106 by using the current information engineering and computer engineering techniques.

また、前述の実施の形態では、物体の認識のために使用する物体認識用情報OBSの形状情報が3次元の幾何学形状情報である場合を説明した。しかし、これに限定されなるも
のではない。前述の物体特定用装置201〜206を用いて物体特定結果を得るようなシステムの場合には、物体認識用情報OBSの形状情報は、2次元形状情報であってもよい。この場合、一の物体について、当該物体を各方向から見て得られる複数種類の2次元形状情報を用意しておく。これにより、物体特定用装置201〜206を作業環境に3次元的に配置しておくことで、それら物体特定用装置201〜206が、2次元形状情報により、物体を特定するとともに、ロボット1も、2次元形状情報により、物体を特定できるようになる。なお、2次元形状情報の場合、物体を特定できない物体特定用装置も出てくると考えられるが、最終的には、ロボット1が、各物体特定用装置201〜206から得られた複数の物体特定結果を確率計算等により評価して、物体を特定するようにする。
In the above-described embodiment, the case has been described in which the shape information of the object recognition information OBS used for object recognition is three-dimensional geometric shape information. However, the present invention is not limited to this. In the case of a system that obtains an object identification result using the object identification devices 201 to 206 described above, the shape information of the object recognition information OBS may be two-dimensional shape information. In this case, for one object, a plurality of types of two-dimensional shape information obtained by viewing the object from each direction are prepared. As a result, the object specifying devices 201 to 206 are three-dimensionally arranged in the work environment, so that the object specifying devices 201 to 206 specify the object based on the two-dimensional shape information, and the robot 1 also The object can be specified by the two-dimensional shape information. In the case of two-dimensional shape information, it is considered that an object specifying device that cannot specify an object will come out, but eventually, the robot 1 has a plurality of objects obtained from each of the object specifying devices 201 to 206. The identification result is evaluated by probability calculation or the like to identify the object.

例えば、3次元形状情報よりも、2次元形状情報とした方がデータ量を少なくすることができると考えられる。このようなことから、物体認識用情報OBSの形状情報を2次元形状情報とした場合、情報サーバ101では、負荷を減らして物体認識用情報OBSを管理できるようになる。また、ロボット1や物体特定用装置201〜206における認識処理の負荷も減らすことができる。   For example, it is considered that the amount of data can be reduced by using the two-dimensional shape information rather than the three-dimensional shape information. For this reason, when the shape information of the object recognition information OBS is two-dimensional shape information, the information server 101 can manage the object recognition information OBS with a reduced load. In addition, the load of recognition processing in the robot 1 and the object identifying devices 201 to 206 can be reduced.

また、前述の実施の形態では、物体認識用情報OBSが、物体の認識するために必要な情報と、物体を操作するために必要な情報(物体操作用情報)とを構成する場合を説明した。しかし、これに限定されるものではなく、物体の認識するために必要な情報である物体認識用情報OBSとは別に、物体を操作するために必要な情報である物体操作用情報を用意してもよい。この場合、例えば、物体操作用情報は、情報サーバやタグに書き込んでおく。例えば、タグに書き込んでおいた場合、ロボット1は、タグリーダライタ4によりタグからの物体操作用情報を読み出して、その物体操作用情報に基づいて作業環境モデルを作成(完成或いは更新)する。   In the above-described embodiment, the case where the object recognition information OBS includes information necessary for recognizing the object and information necessary for manipulating the object (object operation information) has been described. . However, the present invention is not limited to this. Apart from the object recognition information OBS that is information necessary for recognizing an object, object operation information that is information necessary for operating the object is prepared. Also good. In this case, for example, the object operation information is written in an information server or tag. For example, when the information is written on the tag, the robot 1 reads the object operation information from the tag by the tag reader / writer 4 and creates (completes or updates) the work environment model based on the object operation information.

また、前述の実施の形態では、物体特定用装置201〜206を作業環境Wに固定設置した場合を説明した。しかし、これに限定されるものではない。すなわち、物体特定用装置201〜206は、作業環境Wにおいて移動するものでもよい。例えば、物体特定用装置201〜206は、他のロボット1が備えるものであってもよい。すなわち、他のロボット1のタグリーダライタ4及び撮像部9が、物体特定用装置201〜206のタグリーダライタ211及び撮像部212を構成する。   Further, in the above-described embodiment, the case where the object specifying devices 201 to 206 are fixedly installed in the work environment W has been described. However, it is not limited to this. That is, the object identifying devices 201 to 206 may be moved in the work environment W. For example, the object identifying devices 201 to 206 may be provided in another robot 1. That is, the tag reader / writer 4 and the imaging unit 9 of the other robot 1 constitute the tag reader / writer 211 and the imaging unit 212 of the object identifying devices 201 to 206.

また、物体特定用装置201〜206は、タグリーダライタ4と撮像部9とを備えることに限定されるものではない。例えば、物体特定用装置201〜206は、タグリーダライタ4又は撮像部9の一方、或いはその他の検出手段を備えていてもよい。ようは、物体特定用装置201〜206は、ロボット1が行う物体の特定を補足するような情報が得られるように構成されてさえいればよい。   The object specifying devices 201 to 206 are not limited to the tag reader / writer 4 and the imaging unit 9. For example, the object identifying devices 201 to 206 may include one of the tag reader / writer 4 and the imaging unit 9, or other detection means. As described above, the object specifying devices 201 to 206 only have to be configured to obtain information that supplements the object specification performed by the robot 1.

例えば、物体特定用装置201〜206がタグリーダライタ4のみを備えている場合を考える。タグリーダライタ4は一定範囲内に存在するタグ内の情報を読み取ることが可能である。このようなことから、物体特定用装置201〜206をある決められた位置に配置したとすれば、物体特定用装置201〜206のタグリーダライタ4によりデータ読み取り可能領域が一定領域であることから、物体特定用装置201〜206のタグリーダライタ4が情報を取得できた場合には、その情報が取得されたタグ(物体)の位置をある程度特定することができる。よって、物体特定用装置201〜206が、物体特定情報として、物体の位置情報と当該物体の物体ID情報OBとをロボット1に送信することで、ロボット1は、その物体特定情報により物体の位置を特定或いは物体を特定することができるようになる。
また、前述の実施の形態では、作業環境に存在する物体の数、物体特定用装置の数を具体的なものとして説明したが、これに限定されないことはいうまでもない。
For example, consider a case where the object identifying devices 201 to 206 include only the tag reader / writer 4. The tag reader / writer 4 can read information in a tag existing within a certain range. For this reason, if the object specifying devices 201 to 206 are arranged at a predetermined position, the data readable area by the tag reader / writer 4 of the object specifying devices 201 to 206 is a fixed region. When the tag reader / writer 4 of the object specifying devices 201 to 206 can acquire information, the position of the tag (object) from which the information is acquired can be specified to some extent. Therefore, the object specifying devices 201 to 206 transmit the position information of the object and the object ID information OB of the object as the object specifying information to the robot 1, so that the robot 1 can detect the position of the object according to the object specifying information. Or an object can be specified.
In the above-described embodiment, the number of objects existing in the work environment and the number of object specifying devices have been described as specific, but it goes without saying that the present invention is not limited to this.

作業環境で物体に対する操作又は作業をするロボットの様子を示す図である。It is a figure which shows the mode of the robot which performs operation or work with respect to an object in a working environment. タグが装着された物体を示す図である。It is a figure which shows the object with which the tag was mounted | worn. 前記ロボットの構成を示すブロック図である。It is a block diagram which shows the structure of the said robot. 前記ロボットによる処理を含むシステム種々の処理を示すフローチャートである。It is a flowchart which shows the system various processes including the process by the said robot. 前記ロボットが作業対象の物体の位置を特定する処理を示すフローチャートである。It is a flowchart which shows the process in which the said robot pinpoints the position of the object of work object. 作業対象の物体の位置を特定する際のロボットの様子を示す図である。It is a figure which shows the mode of the robot at the time of pinpointing the position of the object of work object. 前記ロボットが物体特定用装置から認識結果を得るようにしたシステムを示す図である。It is a figure which shows the system in which the said robot got the recognition result from the apparatus for object identification. 前記物体特定用装置の構成を示すブロック図である。It is a block diagram which shows the structure of the said apparatus for object identification. 前記物体特定用装置の処理を示すフローチャートである。It is a flowchart which shows the process of the said apparatus for object identification. 前記ロボットが物体特定用装置から認識結果を得るようにしたシステムにおいて、前記ロボットが作業対象の物体の位置を特定する処理を示すフローチャートである。5 is a flowchart showing a process in which the robot specifies a position of an object to be worked in a system in which the robot obtains a recognition result from an object specifying device. 前記ロボットが物体特定用装置から認識結果を得るようにしたシステムにおいて、作業対象の物体の位置を特定する際のロボットの様子を示す図である。It is a figure which shows the mode of the robot at the time of specifying the position of the object of work object in the system which the said robot acquired the recognition result from the apparatus for object specification. 従来における、ある作業環境におけるロボットの自律的行動による作業の説明に使用した図である。It is the figure used for description of the operation | work by the autonomous behavior of the robot in a certain work environment in the past. 従来において、ロボットが使用するデータやプログラムを、当該ロボットに格納する方法の説明に使用した図である。It is the figure used for description of the method of storing the data and program which a robot uses conventionally in the said robot.

符号の説明Explanation of symbols

1 ロボット
2 移動台車
3 アーム
4 タグリーダライタ
5 制御部
6 駆動部
7 アドレス帳処理部
8 ネットワーク処理部
9 撮像部
101 情報サーバ
201〜206 物体特定用装置
211 タグリーダライタ
212 撮像部
213 アドレス処理部
214 ネットワーク処理部
215 処理部
501〜506 物体
501a〜506a タグ
510 製品(物体)
510a タグ
OB 物体ID情報
OBS 物体認識用情報
PG 制御プログラム
W 作業環境
WM 作業環境モデル
DESCRIPTION OF SYMBOLS 1 Robot 2 Mobile trolley 3 Arm 4 Tag reader / writer 5 Control part 6 Drive part 7 Address book process part 8 Network processing part 9 Imaging part 101 Information server 201-206 Object identification apparatus 211 Tag reader / writer 212 Imaging part 213 Address processing part 214 Network Processing unit 215 Processing unit 501 to 506 Object 501a to 506a Tag 510 Product (object)
510a Tag OB Object ID information OBS Object recognition information PG Control program W Work environment WM Work environment model

Claims (6)

物体を画像認識するために必要な物体認識用情報が記憶されている情報サーバと、前記情報サーバに記憶されている物体処理用情報に基づいて前記物体を特定するロボットと、前記ロボットの環境を監視する監視装置とを備え、
前記監視装置は、前記ロボットの環境を監視して監視情報を得ており、
前記ロボットは、周囲を撮像する第1の撮像手段と、前記情報サーバから前記物体認識用情報を読み込むための読み込み用情報を、前記物体に付されている非接触型タグから比接触で読み取る第1のタグリーダと、前記第1のタグリーダが読み取った前記読み込み用情報に基づいて、前記情報サーバから前記物体認識用情報を読み込む第1の通信手段と、前記第1の通信手段が読み込んだ前記物体認識用情報と前記第1の撮像手段が得た撮像画像情報とを用いて前記物体を特定するとともに、その物体の特定に前記監視装置が得た監視情報も用いる物体特定手段とを備えることを特徴とする物体処理システム。
An information server that stores object recognition information necessary for image recognition of an object, a robot that identifies the object based on object processing information stored in the information server, and an environment of the robot A monitoring device for monitoring,
The monitoring device obtains monitoring information by monitoring the environment of the robot,
The robot reads a first imaging means for imaging the surroundings and reading information for reading the object recognition information from the information server from a non-contact tag attached to the object by specific contact. 1 tag reader, first communication means for reading the object recognition information from the information server based on the reading information read by the first tag reader, and the object read by the first communication means An object identifying unit that identifies the object using the recognition information and the captured image information obtained by the first imaging unit, and also uses the monitoring information obtained by the monitoring device to identify the object. Characteristic object processing system.
前記監視装置は、周囲を撮像する第2の撮像手段と、前記物体に付されている非接触型タグから比接触で前記読み込み用情報を読み取る第2のタグリーダと、前記第2のタグリーダが読み取った前記読み込み用情報に基づいて、前記情報サーバから前記物体認識用情報を読み込む第2の通信手段と、前記第2の通信手段が読み込んだ前記物体認識用情報と前記第2の撮像手段が得た撮像画像情報とを用いて前記物体を特定して、その特定結果を前記監視情報として前記ロボットに送信する送信手段とを備えることを特徴とする請求項1記載の物体処理システム。   The monitoring device includes: a second imaging unit that images the surroundings; a second tag reader that reads the reading information from a non-contact tag attached to the object by specific contact; and the second tag reader reads Based on the reading information, the second communication means for reading the object recognition information from the information server, the object recognition information read by the second communication means, and the second imaging means are obtained. The object processing system according to claim 1, further comprising: a transmission unit that identifies the object using the captured image information and transmits the identification result to the robot as the monitoring information. 前記ロボットは、前記タグに情報を書き込むタグライタと、前記物体特定手段が特定した物体の情報を前記タグライタにより前記タグに書き込む物体情報書き込み手段とを備え、
前記タグリーダは、前記物体情報書き込み手段が前記タグに書き込んだ前記物体の情報を読み取ることを特徴とする請求項1又は2に記載の物体処理システム。
The robot includes: a tag writer that writes information to the tag; and an object information writing unit that writes information on an object specified by the object specifying unit to the tag by the tag writer.
The object processing system according to claim 1, wherein the tag reader reads information on the object written on the tag by the object information writing unit.
物体を画像認識するために必要な物体認識用情報を情報サーバに記憶させ、かつ前記情報サーバから前記物体認識用情報を読み込むための読み込み用情報を、前記物体に付されている非接触型タグに記憶させ、監視装置によりロボットの環境を監視して監視情報を得ており、
前記ロボットは、撮像手段により周囲の撮像画像情報を取得するとともに、前記非接触型タグからタグリーダにより比接触で前記読み込み用情報を読み取り、その読み取った読み込み用情報に基づいて、前記情報サーバから前記物体処理用情報を読み込み、その読み込んだ物体認識用情報と前記撮像画像情報とを用いて前記物体を特定するとともに、その物体の特定に前記監視情報も用いること
を特徴とする物体処理方法。
Non-contact type tag in which information for object recognition necessary for image recognition of an object is stored in an information server, and reading information for reading the object recognition information from the information server is attached to the object And monitoring information is obtained by monitoring the robot environment with a monitoring device,
The robot acquires surrounding captured image information by an imaging unit, reads the information for reading from the non-contact type tag by specific contact using a tag reader, and reads the information from the information server based on the read information for reading. An object processing method comprising: reading object processing information, specifying the object using the read object recognition information and the captured image information, and using the monitoring information for specifying the object.
前記ロボットは、前記特定した物体の情報をタグライタにより前記タグに書き込み、
前記ロボットは、前記タグに前記物体の情報が書き込まれている場合には、前記タグリーダにより当該物体の情報を読み取ることを特徴とする請求項4記載の物体処理方法。
The robot writes information of the identified object on the tag by a tag writer,
5. The object processing method according to claim 4, wherein when the object information is written in the tag, the robot reads the object information by the tag reader.
情報サーバに記憶されている物体を画像認識するために必要な物体処理用情報及び監視装置がロボットの環境を監視して得た監視情報に基づいて前記物体を特定するロボットであって、
周囲を撮像する撮像手段と、前記情報サーバから前記物体認識用情報を読み込むための読み込み用情報を、前記物体に付されている非接触型タグから比接触で読み取るタグリーダと、前記タグリーダが読み取った前記読み込み用情報に基づいて、前記情報サーバから前記物体認識用情報を読み込む通信手段と、前記通信手段が読み込んだ前記物体認識用情
報と前記撮像手段が得た撮像画像情報とを用いて前記物体を特定するとともに、その物体の特定に前記監視情報も用いる物体特定手段とを備えることを特徴とするロボット。
An object processing information necessary for recognizing an object stored in an information server and a monitoring device that identifies the object based on monitoring information obtained by monitoring the environment of the robot;
An imaging means for imaging the surroundings, a tag reader for reading information for reading the object recognition information from the information server from a non-contact type tag attached to the object, and the tag reader Based on the reading information, the object using the communication means for reading the object recognition information from the information server, the object recognition information read by the communication means, and the captured image information obtained by the imaging means. And an object specifying unit that uses the monitoring information for specifying the object.
JP2003326715A 2003-09-18 2003-09-18 Object processing system, object processing method and robot Pending JP2005088146A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003326715A JP2005088146A (en) 2003-09-18 2003-09-18 Object processing system, object processing method and robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003326715A JP2005088146A (en) 2003-09-18 2003-09-18 Object processing system, object processing method and robot

Publications (1)

Publication Number Publication Date
JP2005088146A true JP2005088146A (en) 2005-04-07

Family

ID=34456818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003326715A Pending JP2005088146A (en) 2003-09-18 2003-09-18 Object processing system, object processing method and robot

Country Status (1)

Country Link
JP (1) JP2005088146A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005279804A (en) * 2004-03-29 2005-10-13 Advanced Telecommunication Research Institute International Object recognizing apparatus
JP2006102881A (en) * 2004-10-06 2006-04-20 Nagasaki Prefecture Gripping robot device
JP2007011670A (en) * 2005-06-30 2007-01-18 Nippon Telegr & Teleph Corp <Ntt> Storage system, ic tag, storage device, copying control device, storage instruction device, acquisition control device, method for storing ic tag information, computer program and recording medium
JP2009034806A (en) * 2007-07-31 2009-02-19 Ind Technol Res Inst Structure for applying radio recognizing technique to electronic robot operation sequential control
JP2009110382A (en) * 2007-10-31 2009-05-21 Saxa Inc Production system
US7539563B2 (en) * 2004-11-03 2009-05-26 Samsung Electronics Co., Ltd. System and method for identifying objects in a space
JP2010228064A (en) * 2009-03-27 2010-10-14 National Institute Of Advanced Industrial Science & Technology Robot arm operating method of robot device for welfare, robot arm operation program, and recording medium
JP2011516283A (en) * 2009-01-09 2011-05-26 チーユー リン Method for teaching a robot system
JP2020189379A (en) * 2019-05-22 2020-11-26 オムロン株式会社 Working robot and control method for the same

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005279804A (en) * 2004-03-29 2005-10-13 Advanced Telecommunication Research Institute International Object recognizing apparatus
JP2006102881A (en) * 2004-10-06 2006-04-20 Nagasaki Prefecture Gripping robot device
US7539563B2 (en) * 2004-11-03 2009-05-26 Samsung Electronics Co., Ltd. System and method for identifying objects in a space
JP2007011670A (en) * 2005-06-30 2007-01-18 Nippon Telegr & Teleph Corp <Ntt> Storage system, ic tag, storage device, copying control device, storage instruction device, acquisition control device, method for storing ic tag information, computer program and recording medium
JP4633558B2 (en) * 2005-06-30 2011-02-16 日本電信電話株式会社 Storage system, copy control device, storage instruction device, acquisition control device, IC tag information storage method, computer program, and recording medium
JP2009034806A (en) * 2007-07-31 2009-02-19 Ind Technol Res Inst Structure for applying radio recognizing technique to electronic robot operation sequential control
JP2009110382A (en) * 2007-10-31 2009-05-21 Saxa Inc Production system
JP2011516283A (en) * 2009-01-09 2011-05-26 チーユー リン Method for teaching a robot system
JP2010228064A (en) * 2009-03-27 2010-10-14 National Institute Of Advanced Industrial Science & Technology Robot arm operating method of robot device for welfare, robot arm operation program, and recording medium
JP2020189379A (en) * 2019-05-22 2020-11-26 オムロン株式会社 Working robot and control method for the same
JP7310297B2 (en) 2019-05-22 2023-07-19 オムロン株式会社 Work robot and its control method

Similar Documents

Publication Publication Date Title
WO2018137445A1 (en) Ros-based mechanical arm grabbing method and system
JP6873941B2 (en) Robot work system and control method of robot work system
CN110891740B (en) Method and system for providing robot operation constraints for a remotely controllable robot
US8972053B2 (en) Universal payload abstraction
KR102619004B1 (en) Robot control apparatus and method for learning task skill of the robot
US11288883B2 (en) Autonomous task performance based on visual embeddings
CN109551476B (en) Robot system combined with cloud service system
US10166673B2 (en) Portable apparatus for controlling robot and method thereof
CN102802884A (en) Movement route searching apparatus and movement route searching method
CN110888428B (en) Mobile robot, remote terminal, computer readable medium, control system, and control method
US20200171667A1 (en) Vision-based robot control system
JP6950192B2 (en) Information processing equipment, information processing systems and programs
JP2005088146A (en) Object processing system, object processing method and robot
JP2005088143A (en) Object processing system, object processing method and robot
WO2022056050A1 (en) Fine-grained industrial robotic assemblies
JP2005056213A (en) System, server and method for providing information
JP2004243499A (en) Article handling system for living space, article handling method, and robot operating device
CN114187312A (en) Target object grabbing method, device, system, storage medium and equipment
JP5659787B2 (en) Operation environment model construction system and operation environment model construction method
JP2005088140A (en) Object processing system, object processing method and robot
JP3932363B2 (en) Robot and object processing method
Babu et al. IoT enabled Robots with QR Code based localization
JP6809267B2 (en) Information processing equipment, information processing systems and programs
CN111267088A (en) Method, device, equipment and storage medium for executing action molecules
CN111267086A (en) Action task creating and executing method and device, equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060926

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070220