JP4646943B2 - robot - Google Patents

robot Download PDF

Info

Publication number
JP4646943B2
JP4646943B2 JP2007107039A JP2007107039A JP4646943B2 JP 4646943 B2 JP4646943 B2 JP 4646943B2 JP 2007107039 A JP2007107039 A JP 2007107039A JP 2007107039 A JP2007107039 A JP 2007107039A JP 4646943 B2 JP4646943 B2 JP 4646943B2
Authority
JP
Japan
Prior art keywords
holding
article
robot
information
holding method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007107039A
Other languages
Japanese (ja)
Other versions
JP2007216381A (en
Inventor
智 佐藤
雅通 中川
一生 登
幹也 中田
堅司 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2007107039A priority Critical patent/JP4646943B2/en
Publication of JP2007216381A publication Critical patent/JP2007216381A/en
Application granted granted Critical
Publication of JP4646943B2 publication Critical patent/JP4646943B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、物品の状況に応じて物品の保持を行うロボットに関する。   The present invention relates to a robot that holds an article according to the condition of the article.

従来の保持装置として、保持対象物を例えば野菜や布といったように一種類に限定し、その保持対象物を最適に保持可能となるように構成されたハンドリング部を備えた装置が知られている(例えば特許文献1,2参照)。   As a conventional holding device, there is known a device including a handling unit configured to limit a holding object to one type such as vegetables and cloth and to hold the holding object optimally. (For example, refer to Patent Documents 1 and 2).

一方、複数種類の保持対象物をそれぞれ最適に保持可能となるように、各種類の保持対象物に対応する複数のハンドリング部を備え、保持対象物の種類に応じて最適なハンドリング部を選択する保持装置も知られている(例えば特許文献3参照)。   On the other hand, a plurality of handling units corresponding to each type of holding object are provided so that a plurality of types of holding objects can be held optimally, and an optimum handling unit is selected according to the type of holding object. A holding device is also known (see, for example, Patent Document 3).

また、保持対象物が複数種類存在する場合に、その各種類の保持対象物の特徴データと、当該保持対象物に対する動作情報とを対応付けて記憶しておき、上記特徴データに基づいて視覚センサで保持対象物の種類を認識すると共に、その認識した保持対象物に応じた動作でもってそれを保持する保持装置も知られている(例えば特許文献4参照)。   Further, when there are a plurality of types of holding objects, the feature data of each type of holding object and the operation information for the holding object are stored in association with each other, and the visual sensor is based on the feature data. There is also known a holding device that recognizes the type of the holding object and holds it with an operation according to the recognized holding object (see, for example, Patent Document 4).

特許1976349号公報Japanese Patent No. 1976349 特開平8−132379号公報JP-A-8-132379 特許2710856号公報Japanese Patent No. 2710856 特開昭64−2882号公報Japanese Patent Laid-Open No. 64-2882

上記各文献に開示された保持装置は、工場や倉庫等における所謂FA(Factory Automation)の分野において用いられるため、保持対象物の種類は限られていると共に、保持装置によって保持する際に必要となる情報、例えば形状データ、材質データ、保持対象物における保持位置データ、等は、その各種類の保持対象物について予め得られている。   Since the holding devices disclosed in the above documents are used in the field of so-called FA (Factory Automation) in factories, warehouses, etc., the types of holding objects are limited and are necessary when holding by holding devices. Information such as shape data, material data, holding position data in the holding object, and the like are obtained in advance for each type of holding object.

これに対し、上記保持装置を例えばロボットに搭載して、そのロボットに、一般家庭、オフィス、ホテル、店舗及び病院等の、人間が生活を営む空間(以下、生活空間と呼ぶ)において作業を行わせることが考えられる。しかし、生活空間内には、極めて多くの種類の物品が存在しているため、それに伴い保持装置の保持対象物の種類が極めて多くなる。   On the other hand, the above holding device is mounted on a robot, for example, and the robot performs work in a space in which a person lives (such as a home, office, hotel, store, and hospital). It can be considered. However, since there are a great many types of articles in the living space, the number of types of objects to be held by the holding device increases accordingly.

そのため、全ての種類の物品について保持に必要となる情報を予め得ることが困難になり、情報の無い物品については保持することができなくなる場合が考えられる。   Therefore, it may be difficult to obtain information necessary for holding all types of articles in advance, and it may be impossible to hold articles without information.

また、生活空間内においては、保持に必要となる情報を予め得ることができない場合もある。例えば料理が盛り付けられた皿を保持するときには、料理が盛り付けられていない部分を保持(把持)する必要があるが、どの位置に料理が盛り付けられているかは、予め決定することができない。つまり、保持に必要となる情報を予め得ることができないのである。   Moreover, in a living space, there are cases where information necessary for holding cannot be obtained in advance. For example, when holding a dish on which a dish is arranged, it is necessary to hold (grip) a portion where the dish is not arranged, but it is not possible to determine in advance where the dish is arranged. That is, information necessary for holding cannot be obtained in advance.

さらに、工場等においては保持対象物の状況が変化することはないが、生活空間内においては物品の状況が刻々と変化する場合がある。例えば紙は、通常はシート状の形態を有しているが、くしゃくしゃに丸められることでその形態が全く変化してしまう場合がある。そうすると、仮に物品の保持に必要となる情報が予め得られていた、つまり上記の例では、シート状の紙を保持するための情報が得られていたとしても、その情報が丸められた紙を保持する際には役に立たない。   Further, the situation of the holding object does not change in a factory or the like, but the situation of the article may change every moment in the living space. For example, paper usually has a sheet-like form, but the form may change completely when crumpled. Then, if the information necessary for holding the article has been obtained in advance, that is, in the above example, even if the information for holding the sheet-like paper is obtained, the paper on which the information is rounded is used. Useless when holding.

本発明は、このような事情に鑑みてなされたものであり、その目的とするところは、多種多様な物品をその状況に応じて最適に保持することが可能な、ロボットを提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide a robot capable of optimally holding a wide variety of articles according to the situation. .

本発明は、上記目的を達成するため、以下のように構成している。   In order to achieve the above object, the present invention is configured as follows.

本発明の第1態様によれば、生活空間内の物品のうちの保持対象物の状況を認識する認識装置と、
上記保持対象物の状況に応じて異なる物品保持方法を記憶する保持方法データベースと、
上記認識装置によって認識された状況に応じて、異なる物品保持方法のうちから1つの物品保持方法を特定する物品保持方法特定手段と、
上記物品保持方法特定手段によって特定された物品保持方法を参照して、上記保持対象物の保持を実行する保持装置と、を備えるとともに、
上記認識装置は、物品の移動速度又は位置を含む、人が行っている上記物品の保持動作を認識し、
上記認識装置による、上記人が行っている上記物品の保持動作の認識結果に基づいて上記物品毎の又は上記物品の状況毎の保持方法を学習設定する学習手段をさらに備え、
上記学習手段は、上記人が行っている上記物品の保持動作を参照してその物品の保持方法を学習し、学習した保持方法を上記物品に対応付けて上記保持方法データベースに記憶する、ロボットを提供する。
According to the first aspect of the present invention, a recognition device for recognizing the status of a holding object among articles in a living space;
A holding method database for storing different article holding methods depending on the status of the holding object;
An article holding method specifying means for specifying one article holding method from different article holding methods according to the situation recognized by the recognition device;
A holding device that performs holding of the holding object with reference to the article holding method specified by the article holding method specifying means,
The recognition device recognizes a holding operation of the article performed by a person , including a moving speed or position of the article,
Learning means for learning and setting a holding method for each article or each situation of the article based on a recognition result of the holding operation of the article performed by the person by the recognition device;
The learning means refers to a holding operation of the article performed by the person, learns a holding method of the article, and stores the learned holding method in the holding method database in association with the article. provide.

本発明のロボットによると、保持対象物の状況を認識し、その認識結果に応じて保持方法を特定するため、各種物品の状況に応じた最適な保持方法が特定され、上記保持対象物をその最適な保持方法で保持することができる。   According to the robot of the present invention, in order to recognize the situation of the holding object and specify the holding method according to the recognition result, the optimum holding method according to the situation of various articles is specified, and the holding object is It can be held by an optimal holding method.

本発明の記述を続ける前に、添付図面において同じ部品については同じ参照符号を付している。   Before continuing the description of the present invention, the same parts are denoted by the same reference numerals in the accompanying drawings.

本発明の実施形態を説明する前に、まずの本発明の種々態様について説明する。   Before describing embodiments of the present invention, various aspects of the present invention will be described first.

本発明の第1態様によれば、ロボットの保持装置手段を用いて生活空間内の物品の保持を行うための保持ロボット制御方法であって、
上記生活空間内の物品のうちの保持対象物の状況を認識する認識ステップと、
上記認識ステップで認識した状況に応じて、異なる物品保持方法のうちから1つの物品保持方法を特定する特定ステップと、
上記特定ステップで特定した物品保持方法に従って、上記保持装置手段によって上記保持対象物の保持を行う保持ステップと、を含む保持ロボット制御方法を提供する。
According to a first aspect of the present invention, there is provided a holding robot control method for holding an article in a living space using a robot holding device.
A recognition step for recognizing a situation of a holding object among the articles in the living space;
A specific step of identifying one article holding method from among different article holding methods according to the situation recognized in the recognition step;
A holding robot control method including a holding step of holding the holding object by the holding device means according to the article holding method specified in the specifying step.

本発明の第2態様によれば、生活空間内の物品のうちの保持対象物の状況を認識する認識装置と、
上記保持対象物の状況に応じて異なる物品保持方法を記憶する保持方法データベースと、
上記認識装置によって認識された状況に応じて、異なる物品保持方法のうちから1つの物品保持方法を特定する物品保持方法特定手段と、
上記物品保持方法特定手段によって特定された物品保持方法を参照して、上記保持対象物の保持を実行する保持装置と、を備えたロボットを提供する。
According to the second aspect of the present invention, the recognition device for recognizing the status of the holding object among the articles in the living space;
A holding method database for storing different article holding methods depending on the status of the holding object;
An article holding method specifying means for specifying one article holding method from different article holding methods according to the situation recognized by the recognition device;
With reference to the article holding method specified by the article holding method specifying means, there is provided a robot comprising a holding device for holding the holding object.

本発明の第3態様によれば、上記保持対象物は、形、温度、内容物を含む形態が変化する物品であり、
上記認識装置は、上記保持対象物の上記形態を上記保持対象物の上記状況として認識し、
上記物品保持方法特定手段は、上記認識装置によって認識された状況としての上記形態に応じて、上記保持方法データベース内の上記異なる物品保持方法のうちから1つの物品保持方法を特定する、第2態様に記載のロボットを提供する。
According to the third aspect of the present invention, the holding object is an article whose shape, temperature, and form including contents change,
The recognition device recognizes the form of the holding object as the situation of the holding object,
The article holding method specifying means specifies one article holding method from the different article holding methods in the holding method database according to the form as the situation recognized by the recognition device. The robot described in is provided.

本発明の第4態様によれば、上記保持方法データベースには、上記保持対象物として複数の異なる保持対象物に対する物品保持方法が記憶されており、上記異なる保持対象物は、物品ID情報は共通であり、形、温度、又は、内容物などの形態が異なる物品であって、その形態が変わることにより保持方法が変わるように上記物品保持方法が記憶されている、第2態様に記載のロボットを提供する。   According to the fourth aspect of the present invention, the holding method database stores article holding methods for a plurality of different holding objects as the holding objects, and the different holding objects share the same article ID information. The robot according to the second aspect, wherein the article holding method is stored so that the holding method is changed by changing the form of the article having different shapes such as shape, temperature, or contents. I will provide a.

本発明の第5態様によれば、上記認識装置は、時間に対して変化する、上記保持対象物の状況を認識する、第2〜4態様のいずれか1つに記載のロボットを提供する。   According to a fifth aspect of the present invention, there is provided the robot according to any one of the second to fourth aspects, wherein the recognition device recognizes the state of the holding object that changes with time.

本発明の第6態様によれば、上記保持対象物は、その内部に物体を収容可能な物品であり、
上記認識装置は、上記保持対象物の内部に物体が収容されているか否かを認識し、
上記物品保持方法特定手段は、上記認識装置によって認識された、上記保持対象物の内部に物体が収容されているか否かの状況に応じて、異なる物品保持方法のうちから1つの物品保持方法を特定する、第5態様に記載のロボットを提供する。
According to the sixth aspect of the present invention, the holding object is an article that can accommodate an object therein,
The recognizing device recognizes whether or not an object is contained in the holding object;
The article holding method specifying means selects one article holding method from among different article holding methods depending on whether or not an object is accommodated in the holding object recognized by the recognition device. The robot according to the fifth aspect is specified.

本発明の第7態様によれば、上記保持対象物は、光透過特性を有しており、
上記認識装置は、上記保持対象物における光の屈折を利用して、当該保持対象物の内部に物体が収容されているか否かを認識し、
上記物品保持方法特定手段は、上記認識装置によって認識された、上記保持対象物の内部に物体が収容されているか否かの状況に応じて、異なる物品保持方法のうちから1つの物品保持方法を特定する、第6態様に記載のロボットを提供する。
According to the seventh aspect of the present invention, the holding object has light transmission characteristics,
The recognizing device recognizes whether an object is accommodated inside the holding object using refraction of light in the holding object,
The article holding method specifying means selects one article holding method from among different article holding methods depending on whether or not an object is accommodated in the holding object recognized by the recognition device. The robot according to the sixth aspect is specified.

本発明の第8態様によれば、上記認識装置は、上記保持対象物の温度分布を認識し、
上記物品保持方法特定手段は、上記認識装置によって認識された、上記保持対象物の温度分布の状況に応じて、異なる物品保持方法のうちから1つの物品保持方法を特定する、第4態様に記載のロボットを提供する。
According to the eighth aspect of the present invention, the recognition device recognizes the temperature distribution of the holding object,
In the fourth aspect, the article holding method specifying means specifies one article holding method from among different article holding methods, which is recognized by the recognition device, according to the temperature distribution of the holding object. Provide robots.

本発明の第9態様によれば、上記保持対象物は、調理器具又は食器であり、
上記保持方法特定手段は、上記認識装置によって認識された上記調理器具又は食器の温度分布に基づいて、上記調理器具又は食器の保持位置を特定する、第8態様に記載のロボットを提供する。
According to the ninth aspect of the present invention, the holding object is a cooking utensil or tableware,
The holding method specifying means provides the robot according to the eighth aspect, wherein the holding position of the cooking utensil or tableware is specified based on the temperature distribution of the cooking utensil or tableware recognized by the recognition device.

本発明の第10態様によれば、上記保持対象物は、紙又は衣類である、第5態様に記載のロボットを提供する。   According to a tenth aspect of the present invention, there is provided the robot according to the fifth aspect, wherein the holding object is paper or clothing.

本発明の第11態様によれば、上記認識装置は、上記保持対象物の上に物体が置かれているか否かを認識し、
上記物品保持方法特定手段は、上記認識装置によって認識された、上記保持対象物の上に物体が置かれているか否かの状況に応じて、異なる物品保持方法のうちから1つの物品保持方法を特定する、第5態様に記載のロボットを提供する。
According to the eleventh aspect of the present invention, the recognition device recognizes whether an object is placed on the holding object,
The article holding method specifying means selects one article holding method from among different article holding methods according to whether or not an object is placed on the holding object recognized by the recognition device. The robot according to the fifth aspect is specified.

本発明の第12態様によれば、上記保持対象物は、食器である、第11態様に記載のロボットを提供する。   According to a twelfth aspect of the present invention, there is provided the robot according to the eleventh aspect, wherein the holding object is tableware.

本発明の第13態様によれば、上記保持方法を学習する学習手段をさらに備え、
上記学習手段は、人が実行している物品の保持動作を参照してその物品の保持方法を学習し、学習した保持方法を上記物品に対応付けて上記保持方法データベースに記憶する、第2態様に記載のロボットを提供する。
According to a thirteenth aspect of the present invention, further comprising learning means for learning the holding method,
The learning means refers to a holding operation of an article being performed by a person, learns a holding method of the article, and stores the learned holding method in association with the article in the holding method database. The robot described in is provided.

本発明の第14態様によれば、上記保持方法データベースには、物品毎に予め設定された保持方法が記憶されており、
上記保持方法特定手段は、上記認識装置による認識結果を参照して上記保持方法データベースに予め設定されている保持方法の中から上記保持対象物の保持方法を選択し、
上記保持方法特定手段はさらに、上記認識結果に対応する保持方法が上記保持方法データベースに予め設定されていないときには、上記保持対象物の材質又は形状に近似する物品に設定されている保持方法を、上記保持方法データベースから選択して上記保持対象物の保持方法とする、第2態様に記載のロボットを提供する。
According to the fourteenth aspect of the present invention, the holding method database stores a holding method set in advance for each article,
The holding method specifying means selects the holding method of the holding object from the holding methods preset in the holding method database with reference to the recognition result by the recognition device,
When the holding method corresponding to the recognition result is not preset in the holding method database, the holding method specifying means further includes a holding method set for an article that approximates the material or shape of the holding object, The robot according to the second aspect, which is selected from the holding method database and used as the holding method of the holding object, is provided.

本発明の第15態様によれば、上記認識装置は、上記保持対象物の材質を認識し、
上記物品保持方法特定手段は、上記認識装置によって認識された、上記保持対象物の材質に応じて、異なる物品保持方法のうちから1つの物品保持方法を特定する、第2態様に記載のロボットを提供する。
According to the fifteenth aspect of the present invention, the recognition device recognizes the material of the holding object,
The robot according to the second aspect, wherein the article holding method specifying means specifies one article holding method from among different article holding methods according to the material of the holding object recognized by the recognition device. provide.

本発明の第16態様によれば、上記認識装置は、
上記保持対象物を撮像する撮像装置と、
上記撮像装置によって撮像された画像に基づき、上記保持対象物の光学特性を利用してその材質を認識する材質認識手段と、を含む、第15態様に記載のロボットを提供する。
According to a sixteenth aspect of the present invention, the recognition device comprises:
An imaging device for imaging the holding object;
A robot according to a fifteenth aspect is provided, comprising: a material recognizing unit that recognizes a material of the holding object based on an image picked up by the image pickup device using an optical characteristic of the holding object.

本発明の第17態様によれば、上記保持対象物に光を照射する光源をさらに備え、
上記材質認識手段は、上記保持対象物の反射特性を利用してその材質を認識する、第16態様に記載のロボットを提供する。
According to a seventeenth aspect of the present invention, further comprising a light source for irradiating the holding object with light,
The robot according to the sixteenth aspect, wherein the material recognizing means recognizes the material using the reflection characteristic of the holding object.

本発明の第18態様によれば、上記光源は、上記保持対象物に対する位置を変更可能に設けられており、
上記撮像装置は、上記光源の位置を変えながら複数の画像を撮像し、
上記材質認識手段は、上記複数の画像を処理することによって上記保持対象物の材質を認識する、第17態様に記載のロボットを提供する。
According to an eighteenth aspect of the present invention, the light source is provided so that the position relative to the holding object can be changed,
The imaging device captures a plurality of images while changing the position of the light source,
The robot according to the seventeenth aspect, wherein the material recognition means recognizes the material of the object to be held by processing the plurality of images.

本発明の第19態様によれば、生活空間内の物品の保持を行う物品保持システムであって、
上記生活空間内の物品のうちの保持対象物の状況を認識する認識装置と、
上記認識装置による認識結果に基づいて、上記保持対象物の保持を行うロボットと、を備え、
上記ロボットは、
上記認識装置によって認識された状況を受けて、当該状況に応じた保持方法を特定する保持方法特定手段と、
上記保持方法特定手段によって特定された保持方法に従って、上記保持対象物の保持を実行する保持装置と、を有する保持システムを提供する。
According to a nineteenth aspect of the present invention, there is provided an article holding system for holding an article in a living space,
A recognition device for recognizing the status of a holding object among the articles in the living space;
A robot for holding the holding object based on the recognition result by the recognition device,
The robot
A holding method specifying means for receiving a situation recognized by the recognition device and specifying a holding method according to the situation;
There is provided a holding system including a holding device that holds the holding object in accordance with the holding method specified by the holding method specifying means.

本発明の第20態様によれば、第19態様に記載の物品保持システムにおいて、
上記保持装置は、ロボットに搭載されている保持システムを提供する。
According to a twentieth aspect of the present invention, in the article holding system according to the nineteenth aspect,
The holding device provides a holding system mounted on the robot.

以下、本発明の実施形態について、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1実施形態)
図1は、本発明の第1実施形態に係る、保持装置103を有するロボット2による物品保持システム10の基本構成を示す図である。この物品保持システム10の基本構成部分は、例えば図2Aに示すような、人型の家庭用ロボット2に搭載される。このロボット2は、作業命令を受けて、その命令に沿った作業を実行する装置であり、上記物品保持システム10は、その作業に係る物品の保持を実行する。
(First embodiment)
FIG. 1 is a diagram showing a basic configuration of an article holding system 10 by a robot 2 having a holding device 103 according to the first embodiment of the present invention. The basic components of the article holding system 10 are mounted on a human-type home robot 2 as shown in FIG. 2A, for example. The robot 2 is a device that receives a work command and executes a work in accordance with the command. The article holding system 10 executes holding of an article related to the work.

上記物品保持システム10は、図1に示すように、認識装置101、保持方法特定手段102、保持方法データベース102d、及び保持装置103を含む。   As shown in FIG. 1, the article holding system 10 includes a recognition device 101, a holding method specifying unit 102, a holding method database 102 d, and a holding device 103.

上記認識装置101は、保持対象物の状況を認識する。認識装置101による状況認識の具体的な処理については後述する。   The recognition device 101 recognizes the status of the holding object. Specific processing of situation recognition by the recognition apparatus 101 will be described later.

上記保持方法特定手段102は、上記認識装置101が認識した状況を参照して、その状況に最適な物品保持方法をあらかじめ記憶されている複数の物品保持方法の中から特定する。ここでの「物品保持方法」には、後述するように、物品を把持又は吸着する把持ハンド103又は吸着ハンド103sを選択することや、保持した物品をどのように移動させる(把持又は吸着角度、移動速度、移動方向など)か、等が含まれる。   The holding method specifying unit 102 refers to the situation recognized by the recognition device 101 and specifies an optimum article holding method for the situation from a plurality of article holding methods stored in advance. In this “article holding method”, as will be described later, a gripping hand 103 or a suction hand 103 s that grips or sucks an article is selected, and how the held article is moved (a gripping or suction angle, Moving speed, moving direction, etc.).

保持方法データベース102dには、保持対象物の状況に応じて異なる物品保持方法を予め記憶している。   The holding method database 102d stores in advance different article holding methods depending on the status of the holding object.

上記保持装置103は、例えば、ロボット2の本体部390に少なくとも1個配置され、好ましくは、ロボット2の本体部390の両側部に一対配置されている。それぞれの保持装置103は、上記保持方法特定手段102によって特定された保持方法に従って保持対象物の保持を実行する。各保持装置103は、例えば図2Aに示すように、物品の把持を行うハンド103aと、先端にハンド103aが取り付けられた屈曲可能なアーム103bと、を含むとしてもよい。このハンド103aには、空圧式、油圧式、モータ式、人工筋肉等の複数の指からなるハンド、吸着ハンド103s等、が含まれ、後述するように特定された保持方法に応じてそれらが選択される。   For example, at least one holding device 103 is disposed on the main body 390 of the robot 2, and preferably a pair is disposed on both sides of the main body 390 of the robot 2. Each holding device 103 performs holding of the holding object in accordance with the holding method specified by the holding method specifying means 102. For example, as shown in FIG. 2A, each holding device 103 may include a hand 103a that holds an article and a bendable arm 103b that has a hand 103a attached to the tip. The hand 103a includes a pneumatic hand, a hydraulic hand, a motor hand, a hand composed of a plurality of fingers such as an artificial muscle, a suction hand 103s, etc., which are selected according to a specified holding method as described later. Is done.

図2Bは、物品保持時に姿勢制御を行うための上記保持装置103の模式図を示したものである。この図2Bにおいて、保持装置103のアーム103bは、長さL1の基端側のアームと、長さL2の先端側のアームと、基端側のアームの基端部が間接P0によりロボット2の本体部390の側部に回動可能に接続されているとともに、基端側のアームの先端部と先端側のアームの基端部とが間接P1により屈曲可能に接続され、さらに、先端側のアームの先端部に間接P2を介してハンド103aが接続されている。ここで、説明を簡単にするために、2次元平面上において、ハンド103aとアーム103bの接点間接P2を姿勢制御することを考える。   FIG. 2B is a schematic diagram of the holding device 103 for performing posture control when holding an article. 2B, the arm 103b of the holding device 103 includes an arm on the proximal end side having a length L1, an arm on the distal end side having a length L2, and a base end portion of the arm on the proximal end side of the robot 2 by indirect P0. The distal end of the proximal arm and the proximal end of the distal arm are connected to bendable by indirect P1 while being pivotally connected to the side of the main body 390. A hand 103a is connected to the tip of the arm via indirect P2. Here, in order to simplify the explanation, it is considered to control the posture of the contact indirect P2 between the hand 103a and the arm 103b on a two-dimensional plane.

図2Cは、後記する移動装置414や保持装置103のモータ制御形式のアクチュエータなどの任意の駆動部の駆動制御系を表している。なお、すべての駆動部について、同様の駆動制御系が構成されている。   FIG. 2C shows a drive control system of an arbitrary drive unit such as a motor control type actuator of the moving device 414 and the holding device 103 described later. A similar drive control system is configured for all the drive units.

モータ304は、その回転軸が、モータドライバ303から供給される電流によって正逆駆動されて、たとえば4個の車輪394を正逆回転させる。上記モータ304には、駆動された回転軸の回転角度を検出するための角度センサが設置されている。角度センサ307からの出力信号は、エンコーダ306及びエンコーダボード305を通して、CPU301に入力される。   The rotation axis of the motor 304 is driven forward and backward by the current supplied from the motor driver 303 to rotate, for example, four wheels 394 forward and backward. The motor 304 is provided with an angle sensor for detecting the rotation angle of the driven rotating shaft. An output signal from the angle sensor 307 is input to the CPU 301 through the encoder 306 and the encoder board 305.

CPU301は、上記モータ304の駆動を制御する。CPU301には、制御をするために必要な情報を格納するメモリ310が接続されている。   The CPU 301 controls the driving of the motor 304. The CPU 301 is connected to a memory 310 that stores information necessary for control.

また、ハンド103aには、保持対象物をきちんと保持しているかどうかの検出を行う圧力センサ309が、たとえば、把持面に設置されており、その圧力センサ309からのセンサ出力信号は、A/Dコンバータ308を通してCPU301に入力される。   Further, the hand 103a is provided with a pressure sensor 309 for detecting whether or not the object to be held is properly held, for example, on the grip surface, and the sensor output signal from the pressure sensor 309 is A / D. The data is input to the CPU 301 through the converter 308.

角度センサ307からの出力信号と圧力センサ309からのセンサ出力信号を入力信号として受け取り、受け取られた入力信号に応じて、CPU301はモータ304に対する制御信号を作成し、その制御信号は、D/Aコンバータ302を通してモータドライバ303へ送られる。この制御信号に応じてモータ304は正逆駆動されることで、アームやハンドの姿勢制御を実現する。   The output signal from the angle sensor 307 and the sensor output signal from the pressure sensor 309 are received as input signals, and in response to the received input signal, the CPU 301 generates a control signal for the motor 304, and the control signal is D / A It is sent to the motor driver 303 through the converter 302. In response to this control signal, the motor 304 is driven forward and backward to realize arm and hand posture control.

ここで、アーム103bの長さはそれぞれL1、L2、角度センサ307が間接P0,P1において、角度センサ(ここでは、エンコーダ)によって取得されており、その角度をそれぞれθ、φとする。このとき、アーム103bの先端位置P2の位置は、以下の関係式で求まる。   Here, the length of the arm 103b is L1, L2, and the angle sensor 307 is acquired by the angle sensor (here, an encoder) at the indirect P0 and P1, and the angles are θ and φ, respectively. At this time, the position of the tip position P2 of the arm 103b is obtained by the following relational expression.

Figure 0004646943

この関係式から、保持対象物の位置を推定し、任意の位置へ移動させることができるため、姿勢制御を実現することができる。姿勢制御とは、以上のような角度センサなどの情報を元に微調整を行い、位置や向きを正確に制御することである。また、ここでは簡略化のために2次元平面における位置制御のみについて説明したが、3次元空間における位置・姿勢制御についても同様の処理が可能である。
Figure 0004646943

From this relational expression, the position of the object to be held can be estimated and moved to an arbitrary position, so that posture control can be realized. Posture control is to perform fine adjustment based on information such as the angle sensor as described above, and to accurately control the position and orientation. In addition, here, only the position control in the two-dimensional plane has been described for the sake of simplicity, but the same processing can be performed for the position / posture control in the three-dimensional space.

たとえば、内部に液体の入ったグラスGLをハンドで保持する場合、3次元空間における姿勢制御とは、液体がこぼれないように姿勢を制御することである。ここで、座標系を図2Dのように設定する。すなわち、対象物の位置に関しては、互いに直交するXw軸とYw軸とで構成される水平な床面をXw−Yw平面、この平面から垂直上向きにZw軸を設定する。また、姿勢(回転)に関しては、グラスGLの底面を互いに直交するx軸とy軸とで構成されるx−y平面、この平面からグラスGLの口方向へ向かって垂直方向をz方向を設定し、x、y、zの各軸に対して原点側から見て右回りの方向にそれぞれ、α、β、γの方向とする。内部に液体LDの入ったグラスGLを姿勢制御する場合、この6軸に対して、αとβの方向のみが変化しないようにすればよい。   For example, when the glass GL containing a liquid is held by a hand, the posture control in the three-dimensional space is to control the posture so that the liquid does not spill. Here, the coordinate system is set as shown in FIG. 2D. That is, with respect to the position of the object, the horizontal floor composed of the Xw axis and the Yw axis orthogonal to each other is set to the Xw-Yw plane, and the Zw axis is set vertically upward from this plane. Regarding the posture (rotation), the bottom surface of the glass GL is set to the xy plane composed of the x-axis and the y-axis orthogonal to each other, and the z-direction is set in the vertical direction from this plane toward the mouth direction of the glass GL. Then, the directions of α, β, and γ are respectively set clockwise from the origin side with respect to the x, y, and z axes. When controlling the attitude of the glass GL containing the liquid LD inside, only the directions α and β need not be changed with respect to the six axes.

図2Eは、保持レベルに対するαとβの方向の許容変動範囲を示したテーブルであって、保持方法データベース102dに記憶された保持方法の情報を示している。「保持レベル」は、グラスGLに入っている液体LDの量と、グラスGLの大きさに依存して予め決定される。図2Dに示したように、グラスGLの高さをh、グラスGLの口の半径をr、グラスGLに入っている液体LDの高さをhi、グラスGLの水の傾きに対する許容角度をθwとすると、保持レベルは以下のように決定される。 FIG. 2E is a table showing allowable variation ranges in the α and β directions with respect to the holding level, and shows information on the holding method stored in the holding method database 102d. The “holding level” is determined in advance depending on the amount of the liquid LD contained in the glass GL and the size of the glass GL. As shown in FIG. 2D, the height of the glass GL is h, the radius of the mouth of the glass GL is r, the height of the liquid LD in the glass GL is hi, and the allowable angle of the glass GL with respect to the water inclination is θ. Assuming w , the retention level is determined as follows.

Figure 0004646943
Figure 0004646943

Figure 0004646943

グラスGLの高さh、グラスGLの口の半径rは、グラスGLに付された電子タグに書き込んでおけばよい。また、グラスGLに入っている液体LDの高さhiは、後述する重量センサを利用して測定することができる。すなわち、グラスGLの重量wg及び、グラスGLの形状情報を電子タグに書き込んでおく。重量センサによって測定された対象物の重さをwwとすると、内部に入った液体LDの重量はww−wgとして求められる。ここで、内容物が水であるとすると、内部に入った液体LDの量が推定できる。ここで、電子タグ情報より、グラスGLの形状情報を取得できため、これらの情報からグラスGLに入っている液体LDの高さhiを推定することができる。
Figure 0004646943

The height h of the glass GL and the radius r of the mouth of the glass GL may be written on an electronic tag attached to the glass GL. Further, the height hi of the liquid LD contained in the glass GL can be measured using a weight sensor described later. That is, the weight w g of the glass GL and the shape information of the glass GL are written in the electronic tag. When the weight of the object measured by the weight sensor and w w, the weight of the liquid LD entering the interior is determined as w w -w g. Here, when the content is water, the amount of the liquid LD that has entered can be estimated. Here, since the shape information of the glass GL can be acquired from the electronic tag information, the height hi of the liquid LD contained in the glass GL can be estimated from the information.

次に、ロボット2の置かれている環境システムについて説明する。   Next, an environmental system in which the robot 2 is placed will be described.

図2Fは本発明の上記第1実施形態にかかるロボット2が活動する環境システムの構成を示すブロック図である。図2Fに示すように、環境システムは、大きく分けて、上記物品保持システム10を設置したロボット2の一例として機能する作業ロボット402、環境内の状況を把握するセンシング装置(上記認識装置101の一例として機能することができる装置。)404を含む、サーバとしての環境管理サーバ401、及び操作装置としての操作端末403の3個のサブシステムから構成される。サブシステム401〜403はそれぞれ送受信手段409を備えており、これらの送受信手段409によって、それぞれの制御手段の制御の基に、無線又は有線のネットワークを介して、情報やデータ、信号などのやり取りを互いに独立して行うことができる。なお、各送受信手段409は、共通の処理を行うため、図2Fでは同一の符号409を付している。   FIG. 2F is a block diagram showing a configuration of an environmental system in which the robot 2 according to the first embodiment of the present invention is active. As shown in FIG. 2F, the environmental system is roughly divided into a work robot 402 functioning as an example of the robot 2 in which the article holding system 10 is installed, a sensing device for grasping the situation in the environment (an example of the recognition device 101). An environment management server 401 serving as a server, and an operation terminal 403 serving as an operation device. Each of the subsystems 401 to 403 includes transmission / reception means 409, and these transmission / reception means 409 exchange information, data, signals, and the like via a wireless or wired network under the control of each control means. Can be performed independently of each other. In addition, in order to perform a common process, each transmission / reception means 409 attaches | subjects the same code | symbol 409 in FIG. 2F.

なお、ここでの説明では、「環境」は、一例として、家の部屋とするが、本発明はこれに限られるものではなく、生活空間であって物品が配置されている空間を意味する。   In the description here, “environment” is, for example, a room in a house, but the present invention is not limited to this, and means a living space in which articles are arranged.

各サブシステムの構成と動作について、順に説明する。   The configuration and operation of each subsystem will be described in order.

<環境管理サーバの構成>
環境管理サーバ401は、センシング装置404によって把握した状況のうち、環境内に存在する物品と、人やロボット402を含む移動体の状況を管理する物品及び移動体検索・管理手段405と、その物品及び移動体のデータを蓄積する物品及び移動体データベース406と、物品及び移動体以外の環境全体の状況を管理する環境マップ管理手段407と、その環境全体のデータを蓄積する環境マップデータベース408とを備えている。センシング装置404からの出力信号は、物品及び移動体検索・管理手段405と環境マップ管理手段407とにそれぞれ入力されるように接続されている。物品及び移動体検索・管理手段405は、物品及び移動体データベース406と制御手段410とに接続されている。環境マップ管理手段407は、環境マップデータベース408と制御手段410とに接続されている。送受信手段409は、制御手段410に接続されている。
<Configuration of environmental management server>
The environment management server 401 includes articles and mobile body search / management means 405 that manage articles existing in the environment, a moving object including a person and a robot 402, and articles detected by the sensing device 404, and the article. And an article and moving object database 406 for storing data of the moving object, an environment map managing means 407 for managing the status of the entire environment other than the article and the moving object, and an environment map database 408 for storing data of the entire environment. I have. Output signals from the sensing device 404 are connected so as to be input to the article and moving body search / management means 405 and the environment map management means 407, respectively. The article and moving body search / management means 405 is connected to the article and moving body database 406 and the control means 410. The environment map management unit 407 is connected to the environment map database 408 and the control unit 410. The transmission / reception unit 409 is connected to the control unit 410.

送受信手段409は、制御手段410の制御の基に、物品及び移動体データベース406のデータ及び環境マップ408のデータの問い合わせ(信号)を外部から受信したり、その応答信号を外部に発信したり、また、ロボット402に対する制御コマンドを送信したりする。制御手段410は、物品及び移動体検索・管理手段405、環境マップ管理手段407、及び送受信手段409のそれぞれの動作を独立してコントロールする。   Based on the control of the control means 410, the transmission / reception means 409 receives an inquiry (signal) of the data of the article and the moving body database 406 and the data of the environment map 408 from the outside, or sends the response signal to the outside. Also, a control command for the robot 402 is transmitted. The control unit 410 independently controls the operations of the article and moving object search / management unit 405, the environment map management unit 407, and the transmission / reception unit 409.

センシング装置404は、環境内に存在する家具などの物品、及び環境内に存在する人やロボット402について、その位置(位置座標)と状態(座る、外出、立つ、寝る、歩く、保持、吸着、把持、解放など)を常時監視する。   The sensing device 404 is the position (position coordinates) and state (sitting, going out, standing, sleeping, walking, holding, adsorbing) of articles such as furniture existing in the environment and people and robots 402 existing in the environment. (Grip, release, etc.) is constantly monitored.

また、センシング装置404は、人やロボット402によって、環境内に物品が持ち込まれたことや、環境外へ物品が持ち出されたことも検出可能である。センシング装置404は、具体的には、環境内に設置されたカメラ(画像センサ)や、タグセンサ等があるが、詳細については後述する。そして、物品や移動体を検出したとき、センシング装置404は、その検出情報を物品及び移動体検索・管理手段405及び環境マップ管理手段407に送信する。センシング装置404から物品及び移動体検索・管理手段405及び環境マップ管理手段407に送信する情報としては、例えば、物品の検出時刻、物品の位置(位置座標)及び向き等がある。   The sensing device 404 can also detect that an article has been brought into the environment or taken out of the environment by a person or a robot 402. Specifically, the sensing device 404 includes a camera (image sensor), a tag sensor, and the like installed in the environment, and details thereof will be described later. When detecting the article or the moving body, the sensing device 404 transmits the detection information to the article and moving body search / management unit 405 and the environment map management unit 407. The information transmitted from the sensing device 404 to the article and moving body search / management unit 405 and the environment map management unit 407 includes, for example, the detection time of the article, the position (positional coordinates) and the direction of the article.

物品及び移動体検索・管理手段405は、センシング装置404によって検出された物品及び移動体の情報を、物品及び移動体データベース(DB)406に蓄積して管理する。物品及び移動体データベース406に管理する情報は、少なくとも物品及び移動体の現在位置(位置座標)の情報を含む。物品及び移動体データベース406の詳細、及びその更新方法については後述する。   The article and moving body search / management unit 405 accumulates and manages the article and moving body information detected by the sensing device 404 in the article and moving body database (DB) 406. The information managed in the article and moving body database 406 includes at least information on the current positions (position coordinates) of the article and the moving body. Details of the article and mobile object database 406 and the updating method thereof will be described later.

また、物品及び移動体検索・管理手段405は、センシング装置404からの情報に基づいて、物品の操作(物品の保持及び/又は移動などの取扱い)を行っている移動体(人・ロボット)を推論し、その推論結果を物品及び移動体データベース406に蓄積する。   Further, the article and moving body search / management unit 405 selects a moving body (person / robot) that is operating the article (handling and / or moving of the article) based on the information from the sensing device 404. Inference is performed, and the inference result is stored in the article and mobile object database 406.

さらに、物品及び移動体検索・管理手段405は、送受信手段409で受信するなどの結果として制御手段410から物品及び移動体検索・管理手段405に、物品及び移動体データベース406に関する問い合わせがあったとき、その問い合わせの内容に応じて必要な情報を物品及び移動体データベース406から取り出し、制御手段410に送る。   Further, the article / moving body search / management unit 405 receives an inquiry about the article / moving body database 406 from the control unit 410 to the article / moving body search / management unit 405 as a result of reception by the transmission / reception unit 409 or the like. In accordance with the contents of the inquiry, necessary information is extracted from the article and moving body database 406 and sent to the control means 410.

また、環境マップ管理手段407は、センシング装置404からの情報に基づいて、環境マップを作成して環境マップデータベース408に蓄積するとともに、その作成した環境マの管理を環境マップデータベース408で行う。環境マップデータベース408に蓄積された環境マップはロボット402が環境内を移動する際に利用するものであり、ロボット402はこの環境マップをサーバ401から取得して、移動経路計画を立てる。   The environment map management unit 407 creates an environment map based on the information from the sensing device 404 and stores it in the environment map database 408, and manages the created environment map in the environment map database 408. The environment map stored in the environment map database 408 is used when the robot 402 moves in the environment. The robot 402 acquires the environment map from the server 401 and makes a movement route plan.

さらに、環境マップ管理手段407は、送受信手段409で受信するなどの結果として制御手段410から環境マップ管理手段407に、環境マップデータベース408に関する問い合わせがあったとき、その問い合わせの内容に応じて必要な情報を環境マップデータベース408から取り出し、制御手段410に送る。   Furthermore, when the environment map management unit 407 receives an inquiry about the environment map database 408 from the control unit 410 to the environment map management unit 407 as a result of reception by the transmission / reception unit 409 or the like, it is necessary depending on the content of the inquiry. Information is extracted from the environment map database 408 and sent to the control means 410.

また、制御手段410は、環境管理サーバ401の全体を制御する要素であり、主な制御内容としては以下のものがある。   The control means 410 is an element that controls the entire environment management server 401. The main control contents include the following.

1)送受信手段409が、環境管理サーバ401内にある各種データに関する問い合わせを受信したとき、その問い合わせ内容を制御手段410で判断し、その判断結果に応じて、制御手段410から物品及び移動体検索・管理手段405や環境マップ管理手段407にデータの参照要求を出す。   1) When the transmission / reception unit 409 receives an inquiry about various data in the environment management server 401, the control unit 410 determines the content of the inquiry, and according to the determination result, the control unit 410 searches for articles and moving objects. A data reference request is issued to the management unit 405 and the environment map management unit 407.

2)上記要求に対して物品及び移動体検索管理手段405又は環境マップ管理手段407から制御手段410に送られてきた結果を、制御手段410の制御の基に、送受信手段409を介して、問い合わせ元に送る。   2) Inquire about the result sent from the article and moving object search management means 405 or the environment map management means 407 to the control means 410 via the transmission / reception means 409 under the control of the control means 410. Send to the original.

3)操作端末403から送受信手段409を介して制御手段410に送信されたロボット402の作業内容メッセージを解釈し、そのロボット402に動作を実行させるためのロボット制御コマンド列を制御手段410で生成して、制御手段410から送受信手段409を介してロボット402に送信する。なお、ロボット制御コマンド列については、後述する。   3) Interpret the work content message of the robot 402 transmitted from the operation terminal 403 to the control unit 410 via the transmission / reception unit 409, and generate a robot control command sequence for causing the robot 402 to execute an operation. Then, the data is transmitted from the control unit 410 to the robot 402 via the transmission / reception unit 409. The robot control command sequence will be described later.

4)必要に応じて、一定時間毎に、物品及び移動体データベース406で管理している物品の一部又は全部の状況や、環境マップデータベース408で管理している環境マップの状況を、送受信手段409を介して制御手段410により、ロボット402やユーザ(操作端末403)にブロードキャストする。   4) As necessary, transmission / reception means for a certain period of time, a part or all of the articles managed in the article and moving body database 406 and the situation of the environment map managed in the environment map database 408 The information is broadcast to the robot 402 and the user (operation terminal 403) by the control unit 410 via 409.

(センシング装置の具体例)
上記第1実施形態にかかるロボットによる物品保持システムが対象にする環境は、家庭などの生活空間である。したがって、この環境では、物品がいろいろな場所に置かれ、しかもその位置に規則性がなく、その位置は常に変化する。また、人やロボットのような移動体も、その移動経路に制限がなく、自由に動き回る。このため、上記ロボットによる物品保持システムでは、環境内の物品や移動体の状況を的確に検出可能なセンシング技術が要求される。
(Specific examples of sensing devices)
The environment targeted by the robot article holding system according to the first embodiment is a living space such as a home. Therefore, in this environment, articles are placed in various places, and their positions are not regular, and their positions change constantly. In addition, a moving body such as a person or a robot can move freely without any restriction on its moving path. For this reason, in the article holding system using the robot, a sensing technique capable of accurately detecting the situation of articles and moving bodies in the environment is required.

・画像センサ
物品の検出に最も良く用いられるセンサの一つが、画像センサ(カメラ)である。室内全体のような比較的広い範囲を少ない設備で効率よく監視するためには、画像センサ、すなわちカメラを部屋の天井や壁等に固定し、そのカメラ画像(撮像画像)を用いて、室内の物品等の検出を行うのが一般的である。
Image sensor One of the most commonly used sensors for detecting articles is an image sensor (camera). In order to efficiently monitor a relatively wide area such as the whole room with a small amount of equipment, the image sensor, that is, the camera is fixed to the ceiling or wall of the room, and the camera image (captured image) is used to It is common to detect articles and the like.

カメラ画像を用いて環境内の物品や移動体を検出する一般的な手法として、背景差分法がある。背景差分法とは、背景としてのモデル画像を予め準備しておき、現在のカメラ画像とモデル画像との差分を取ることによって、対象物を検出する方法である。上記ロボットによる物品保持システムでは、環境内の物品や移動体を検出・監視する必要があるので、モデル画像としては、環境の状況変動が少ない場合は、その環境内に物品・移動体が存在していないときに撮像した画像を用いればよい。また、環境の状況変動が激しい場合は、所定の時間間隔を空けて撮影された複数の画像を平均して得られた画像を、モデル画像として用いればよい。   There is a background subtraction method as a general method for detecting articles and moving objects in the environment using camera images. The background difference method is a method of detecting an object by preparing a model image as a background in advance and taking the difference between the current camera image and the model image. In the article holding system using the robot described above, it is necessary to detect and monitor articles and moving objects in the environment. Therefore, if there are few changes in the environmental situation, the model / image contains objects / moving objects in the environment. An image captured when not being used may be used. Further, when the environmental situation changes greatly, an image obtained by averaging a plurality of images taken with a predetermined time interval may be used as a model image.

しかしながら、画像センサを用いた物品検出には、一般に、明るさの変化に弱い、解像度が低い、物品が他の物に隠れて見えなくなる(死角の問題)、重なった複数の物品が一個の物品として検出されてしまう等、多くの問題がある。例えば死角の問題に関しては、環境内に複数台のカメラを略均等に配置し、その環境内に存在する物品は全て、いずれかのカメラによって撮像可能なようにすれば解決する。ところが、死角が無くなるだけでは、物品検出を確実に行い得るとは限らない。つまり、カメラ台数をいくら増やしても、解像度の問題や物品の重なりの問題は解決しないため、背景差分画像で浮き出た部分が何であるかを特定することが必ずしもできない。   However, in article detection using an image sensor, in general, it is weak against changes in brightness, resolution is low, the article is hidden behind other objects (the problem of blind spots), and a plurality of overlapping articles are one article. There are many problems. For example, the problem of blind spots can be solved by arranging a plurality of cameras in the environment substantially evenly so that all articles existing in the environment can be imaged by any one of the cameras. However, it is not always possible to reliably detect an article simply by eliminating the blind spot. In other words, no matter how much the number of cameras is increased, the problem of resolution and the problem of overlapping of articles are not solved, so it is not always possible to identify what is the part that is raised in the background difference image.

・電子タグの利用
近年では、電子タグを用いて物品や移動体の位置(位置座標)検出を行う手法が開発されつつある。電子タグとは、データを蓄えるICと、データを無線で送受信するアンテナとから構成されるデバイスである。リーダライタと呼ばれる装置によって、電子タグに書き込まれた情報を非接触で読み取ったり、電子タグに情報を非接触で書き込んだりすることができる。このようなリーダライタをタグリーダと呼ぶ。
-Use of an electronic tag In recent years, a technique for detecting the position (positional coordinates) of an article or a moving body using an electronic tag is being developed. An electronic tag is a device composed of an IC that stores data and an antenna that transmits and receives data wirelessly. A device called a reader / writer can read information written on an electronic tag in a contactless manner or write information in an electronic tag in a contactless manner. Such a reader / writer is called a tag reader.

そこで、電子タグを各物品に付し、その物品に関するデータ、例えば物品の種類(又は物品のID情報)、形状、重さ、その物品の画像、製造年月日等のデータを電子タグに埋め込む。また、移動体(人及びロボット)にも電子タグを付し、その移動体に関するデータ、例えば人の名前や生年月日等の情報を書き込む。人の場合は、常時携帯するもの(例えば腕時計や眼鏡等)に電子タグを付してもよい。一方、環境内には、タグリーダを多数設置する。タグリーダが物品や移動体に付された電子タグの情報を読み取ることによって、カメラがなくても、環境内に存在する物品等の検出が可能になる。   Therefore, an electronic tag is attached to each article, and data relating to the article, for example, data such as the kind of article (or article ID information), shape, weight, image of the article, date of manufacture, etc. are embedded in the electronic tag. . In addition, an electronic tag is also attached to a moving body (a person and a robot), and data relating to the moving body, for example, information such as a person's name and date of birth is written. In the case of a person, an electronic tag may be attached to an object that is always carried (for example, a wristwatch or glasses). On the other hand, many tag readers are installed in the environment. By reading the information of the electronic tag attached to the article or the moving body by the tag reader, it is possible to detect the article or the like existing in the environment without a camera.

また、カメラを用いる場合は単に物品の存在を検出するだけであるが、電子タグを用いる場合は、物品の存在を検出できるだけでなく、電子タグに埋め込まれた当該物品のデータを利用することができる。例えば物品の形状データを利用することによって、後述するように、ロボット402による物品の保持を容易にすることができる。また、製造年月日データを利用することによって品質期限の管理が可能になったり、物品の種類データを利用することによって捜し物を見つけるのが容易になったりする等、ユーザに大きなメリットをもたらす。   In addition, when a camera is used, only the presence of an article is detected. When an electronic tag is used, not only the presence of an article can be detected, but also data of the article embedded in the electronic tag can be used. it can. For example, by using the shape data of the article, the article can be easily held by the robot 402 as described later. In addition, the use of manufacturing date data makes it possible to manage the quality deadline, and the use of article type data makes it easy to find a search item, which brings great advantages to the user.

しかしながら、電子タグを用いた物品検出には、通信距離が短いという問題がある。すなわち、電子タグとタグリーダとのデータのやりとりには人体に影響のない非常に弱い無線電波を使わざるを得ないため、通信距離がせいぜい数10cmと非常に短い。また、通信距離の問題を解消するために、タグリーダを環境内に多数設置することも考えられるが、タグリーダはカメラに比べてコストが高いため、現実的ではない。   However, the article detection using the electronic tag has a problem that the communication distance is short. That is, in order to exchange data between the electronic tag and the tag reader, a very weak radio wave that does not affect the human body must be used, so the communication distance is as short as several tens of cm at most. In order to solve the problem of the communication distance, it may be possible to install a large number of tag readers in the environment. However, since the tag reader is more expensive than the camera, it is not realistic.

・画像センサと電子タグとの組合せ
以上、説明したように、画像センサを用いた方法と、電子タグを利用する方法とには、一長一短がある。そこで、画像センサと電子タグの両方を利用する方法が考えられる。すなわち、上述した背景差分法によって、環境内の物品のおおよその位置(位置座標)を特定し、さらに電子タグを用いてその物品を特定する、というハイブリッド処理を行うのである。
-Combination of image sensor and electronic tag As described above, the method using the image sensor and the method using the electronic tag have advantages and disadvantages. Therefore, a method using both an image sensor and an electronic tag can be considered. That is, a hybrid process is performed in which an approximate position (position coordinates) of an article in the environment is specified by the background subtraction method described above, and the article is specified using an electronic tag.

具体的な処理の例を、2つ挙げる。   Two examples of specific processing will be given.

1つの例は、環境内の天井や壁等にカメラを設置し、作業ロボット402にタグリーダ404aを取り付けるというものである。また、各物品及び移動体には電子タグを取り付けておく。まず、カメラ画像を用いた背景差分法によって、環境内の物品の位置(位置座標)を特定する。そして、特定した物品の近傍にロボット402を移動させて、そのロボット402に取り付けたタグリーダ404aによって、その物品に取り付けられた電子タグから情報を読み取り、その物品を特定する。   One example is that a camera is installed on the ceiling or wall in the environment, and the tag reader 404 a is attached to the work robot 402. Moreover, an electronic tag is attached to each article and the moving body. First, the position (position coordinates) of an article in the environment is specified by a background subtraction method using a camera image. Then, the robot 402 is moved to the vicinity of the identified article, and information is read from the electronic tag attached to the article by the tag reader 404a attached to the robot 402 to identify the article.

もう1つの例は、環境内の天井や壁等にカメラを設置し、その環境内に複数個のタグリーダを略均等に設置するというものである。このタグリーダは、電子タグのデータ読み取りに関して指向性を有し、かつ、その読み取り方向が可変であるものとする。まず、カメラ画像を用いた背景差分法によって、環境内の物品の位置(位置座標)を特定する。次に、特定した物品に最も近い位置(位置座標)に設置されたタグリーダを選択し、そのタグリーダの読み取り方向をその物品に向ける。そして、その物品に取り付けられた電子タグから情報を読み取り、その物品を特定する。なお、この例では、タグリーダと電子タグとの間の距離が長くなる場合があるため、比較的強い無線電波を用いる必要がある。このため、環境内に人がいないことを例えば背景差分法によって確認した上で、電子タグからの情報読み取りを行うのが好ましい。   Another example is that a camera is installed on a ceiling, a wall, or the like in the environment, and a plurality of tag readers are installed almost uniformly in the environment. This tag reader has directivity with respect to data reading of the electronic tag, and its reading direction is variable. First, the position (position coordinates) of an article in the environment is specified by a background subtraction method using a camera image. Next, a tag reader installed at a position (position coordinates) closest to the identified article is selected, and the reading direction of the tag reader is directed to the article. And information is read from the electronic tag attached to the article, and the article is specified. In this example, since the distance between the tag reader and the electronic tag may be long, it is necessary to use a relatively strong radio wave. For this reason, it is preferable to read information from the electronic tag after confirming that there is no person in the environment, for example, by the background subtraction method.

なお、本システムにおけるセンシングには、ここで説明した画像センサや電子タグを用いた方法以外の方法を採用してもよい。   For sensing in this system, a method other than the method using the image sensor or the electronic tag described here may be adopted.

(物品及び移動体検索管理手段)
図2Gは、物品及び移動体検索・管理手段405の内部構成を概念的に示す図である。図2Gにおいて、物品取扱検出手段431は物品が移動体によって取り扱われていること(物品取扱状態)を検出し、取扱者特定手段432は物品取扱検出手段431の検出結果に応じて、物品を取り扱っている移動体(取扱者)を特定する。
(Goods and moving body search management means)
FIG. 2G is a diagram conceptually showing the internal configuration of the article and moving object search / management means 405. In FIG. 2G, the article handling detection means 431 detects that the article is handled by the moving body (article handling state), and the handler identification means 432 handles the article according to the detection result of the article handling detection means 431. Identify the moving body (handler)

物品取扱検出手段431はセンシング装置404からの情報に基づいて、物品取扱状態を検出する。例えば、上述したような画像センサと背景差分法を利用して物品検出を行っている場合は、カメラ画像とモデル画像とを比較して両者の差のある部分が生じた場合に、その部分で物体が取り扱われていると検出する。もちろん、例えば電子タグを利用して、物品取扱状態を検出してもよい。   The article handling detection unit 431 detects the article handling state based on information from the sensing device 404. For example, when article detection is performed using the image sensor and the background subtraction method as described above, when a portion having a difference between the camera image and the model image is generated, Detects that an object is being handled. Of course, the article handling state may be detected using, for example, an electronic tag.

取扱者特定手段432は、物品取扱検出手段431が物品取扱状態を検出したとき、その物品を取り扱っている取扱者(人又はロボット)を特定し、その取扱者の情報を物品及び移動体データベース406に蓄積する。   When the article handling detection unit 431 detects the article handling state, the handler identification unit 432 identifies the handler (person or robot) handling the article, and the information on the handler is stored in the article and mobile database 406. To accumulate.

取扱者の特定は、具体的には次のようにすればよい。センシング装置404としてカメラを利用している場合は、物品取扱状態が検出された領域をそのカメラによって撮像する。そして、撮像画像に対して顔認証処理を行い、移動体を特定する。特定された移動体は、取扱いがなされた物品の近傍にいたと考えられるので、その移動体を取扱者と推定する。なお、センシング装置404としては通常、広域を撮影するために広角カメラが利用されるが、広角カメラの撮像画像の解像度は比較的低く、顔認証処理を行うには十分でない可能性がある。そこで、広角カメラとは別個に、顔認証処理用のカメラとして狭角の高分解能カメラを環境内又はロボット402に設置してもよい。物品取扱検出手段431が物品取扱状態を検出した領域をこの狭角カメラによって撮像し、その撮像画像について顔認証処理を行うことによって、取扱者を精度よく特定できる。   Specifically, the operator may be specified as follows. When a camera is used as the sensing device 404, an image of the area where the article handling state is detected is captured by the camera. And a face authentication process is performed with respect to a captured image, and a moving body is specified. Since the identified mobile body is considered to have been in the vicinity of the article that has been handled, the mobile body is estimated to be a handler. Note that a wide-angle camera is usually used as the sensing device 404 to capture a wide area, but the resolution of a captured image of the wide-angle camera is relatively low and may not be sufficient for performing face authentication processing. Therefore, apart from the wide-angle camera, a narrow-angle high-resolution camera may be installed in the environment or in the robot 402 as a camera for face authentication processing. By picking up an area where the article handling detection means 431 detects the article handling state with this narrow-angle camera and performing face authentication processing on the captured image, the handler can be identified with high accuracy.

なお、物品取扱者の特定は、顔認証処理に限らず、例えば虹彩認証等その他の認証処理によって行ってもよい。また、認証処理を行わずに、そのカメラ画像自体を物品及び移動体データベース406に蓄積してもよい。これは、認証処理によって移動体を特定できなかった場合に限って行ってもよい。さらに、取扱者の特定は電子タグを利用して行ってもよい。   The identification of the article handler is not limited to the face authentication process, but may be performed by other authentication processes such as iris authentication. Further, the camera image itself may be stored in the article and moving object database 406 without performing the authentication process. This may be performed only when the moving object cannot be identified by the authentication process. Further, the operator may be specified using an electronic tag.

(物品及び移動体データベース)
物品及び移動体データベース406は、物品及び移動体の情報を蓄積するデータベースであり、例えば、図2Hに示すような物品を扱う物品データベース(DB)406bと、図2Iに示すような移動体を扱う移動体データベース(DB)406mとを備えている。
(Article and mobile database)
The article and mobile object database 406 is a database that stores information on articles and mobile objects. For example, an article database (DB) 406b that handles articles as shown in FIG. 2H and a mobile object as shown in FIG. 2I are handled. And a mobile database (DB) 406m.

図2Hの物品データベース406bは、物品データ、物品履歴データ、及び物品属性データをそれぞれ蓄積する3個のサブデータベース406b−1、406b−2、406b−3からなる。   The article database 406b in FIG. 2H includes three sub-databases 406b-1, 406b-2, and 406b-3 that store article data, article history data, and article attribute data, respectively.

1)物品データ
物品データのサブデータベース406b−1に蓄積される物品データには、個々の物品を区別するためのID情報(例えば、図2Hにおいて、小さい缶に対してIDとして割り当てられた「kan_small_0001」など)、物品履歴データへのポインタ(例えば、図2Hにおいて、小さい缶の位置履歴としての「リスト1」など)、及び物品属性データへのポインタ(例えば、図2Hにおいて、小さい缶に対して属性データとしての「kan_small」など)、を含む。図2Hの例では、同種類であっても物理的に異なる物品は異なるID情報が割り当てられ、別の物品として扱われる。ただし、同種の物品は同じ物的属性を持つため、ID情報及び位置履歴データへのポインタは異なるが、物品属性データへのポインタは共通である。これにより、データベースの容量が節約できる。
1) Article Data The article data stored in the article data sub-database 406b-1 includes ID information for distinguishing individual articles (for example, “kan_small — 0001 assigned as an ID for a small can in FIG. 2H). ”), A pointer to the article history data (eg,“ List 1 ”as the position history of a small can in FIG. 2H), and a pointer to the article attribute data (eg, a small can in FIG. Attribute data, such as “kan_small”). In the example of FIG. 2H, different ID information is assigned to different physically different articles even if they are of the same type, and are handled as different articles. However, since the same type of articles have the same physical attributes, the pointers to the ID information and the position history data are different, but the pointers to the article attribute data are common. Thereby, the capacity of the database can be saved.

2)物品履歴データ
物品履歴データのサブデータベース406b−2に蓄積される物品履歴データは、物品が取り扱われた履歴を表すものであり、図2Hでは、取扱時刻(例えば、図2Hにおいて、位置履歴リスト1に対して時刻「t1」など)、取扱内容(例えば、図2Hにおいて、位置履歴リスト1に対して操作内容「新規」など)、取扱者(例えば、図2Hにおいて、位置履歴リスト1に対して操作者「お父さん」など)、取扱後の位置(位置座標)(例えば、図2Hにおいて、位置履歴リスト1に対して操作後の位置「x1,y1,z1,l1,m1,n1」など)、の4項目を含む。なお、位置データ(位置座標データ)の表現は様々なものが考えられるが、図2Hの例では、物品の位置(重心位置座標等を用いる)を表す3つのパラメータ(x1,y1,z1)と、物品の向きを表す3つのパラメータ(l1,m1,n1)とを合わせた6つのパラメータで位置(位置座標)を表現している。また、取扱者は、取扱者特定手段432によって特定された移動体である。
2) Article history data The article history data stored in the article history data sub-database 406b-2 represents the history of handling articles. In FIG. 2H, the handling time (for example, the position history in FIG. 2H). Time “t1” for list 1), handling contents (for example, operation contents “new” etc. for position history list 1 in FIG. 2H), handler (for example, position history list 1 in FIG. 2H) On the other hand, the operator “dad” or the like, and the position (position coordinates) after handling (for example, the position “x1, y1, z1, l1, m1, n1” after the operation with respect to the position history list 1 in FIG. ), 4 items are included. Although various representations of position data (position coordinate data) can be considered, in the example of FIG. 2H, three parameters (x1, y1, z1) representing the position of the article (using the barycentric position coordinates, etc.) and The position (positional coordinates) is expressed by six parameters including the three parameters (l1, m1, n1) representing the direction of the article. The handler is a moving body specified by the handler specifying means 432.

3)物品属性データ
物品属性データのサブデータベース406b−3に蓄積される物品属性データは、物品が有する物理的な属性情報を表すものであり、例としては、図6に示すように、物品の重量(例えば、図2Hにおいて、kan_smallに対して重量「100g」など)、形状(例えば、図2Hにおいて、kan_smallに対して形状モデル・サイズとして円筒の斜視図など)、外観画像データ(例えば、図2Hにおいて、kan_smallに対して外観画像の画像データなど)等が挙げられる。
3) Article attribute data The article attribute data stored in the article attribute data sub-database 406b-3 represents physical attribute information of the article. For example, as shown in FIG. Weight (for example, weight “100 g” for kan_small in FIG. 2H), shape (for example, a perspective view of a cylinder as a shape model size for kan_small in FIG. 2H), appearance image data (for example, FIG. In 2H, for example, image data of an appearance image with respect to kan_small).

また、図2Iの移動体データベース406mは、移動体データ、及び移動体履歴データをそれぞれ蓄積する2つのサブデータベース406m−1、406m−2からなる。   2I includes two sub-databases 406m-1 and 406m-2 that store mobile data and mobile history data, respectively.

1)移動体データ
移動体データのサブデータベース406m−1に蓄積される移動体データは、個々の移動体を区別するためのID情報(例えば、図2Iにおいて、IDとして「お父さん」など)、及び移動体履歴データへのポインタ(例えば、図2Iにおいて、位置履歴として「リスト3」など)、を含む。移動体データに格納される移動体は、ユーザが手動で予め登録するようにすればよい。
1) Mobile data The mobile data stored in the mobile data sub-database 406m-1 includes ID information (for example, “dad” as an ID in FIG. 2I) for distinguishing individual mobiles, and A pointer to moving body history data (for example, “list 3” as the position history in FIG. 2I) is included. The mobile body stored in the mobile body data may be manually registered in advance by the user.

2)移動体履歴データ
移動体履歴データのサブデータベース406m−2に蓄積される移動体履歴データは、時刻(例えば、図2Iにおいて、位置履歴リスト3として時刻「t1」など)、その時刻における位置(位置座標)(例えば、図2Iにおいて、位置履歴リスト3として位置「(x4,y4,z4)」など)、及びその時刻における状態(例えば、図2Iにおいて、位置履歴リスト3として状態「座る」など)の3項目を含む。移動体(ロボット402以外のロボット、又は、人)は、物品と異なり、空間内に占める体積が大きいため、ロボット402の移動の障害物になりやすい。このため、ロボット402がそのような障害物を避けつつ移動できるように、移動体の位置(位置座標)はできるだけ現実に則して表すのが好ましい。図2Iでは、必要最小限の情報で表すべく、移動体が床面上で占める領域を円で近似し、円の中心座標と半径によって移動体の位置(位置座標)を表している。もちろん、さらに厳密に表現してもよく、例えば移動体が床面上で占める領域の輪郭を複数個の線分ベクトルを用いて近似してもよい。
2) Moving object history data The moving object history data stored in the moving object history data sub-database 406m-2 includes the time (for example, time “t1” as the position history list 3 in FIG. 2I) and the position at that time. (Position coordinates) (for example, the position “(x4, y4, z4)” as the position history list 3 in FIG. 2I) and the state at the time (for example, the state “sit” as the position history list 3 in FIG. 2I) Etc.). A moving body (a robot other than the robot 402 or a person), unlike an article, has a large volume in the space, and thus tends to be an obstacle to the movement of the robot 402. For this reason, it is preferable to represent the position (positional coordinates) of the moving body as realistic as possible so that the robot 402 can move while avoiding such obstacles. In FIG. 2I, the area occupied by the moving body on the floor surface is approximated by a circle in order to represent it with the minimum necessary information, and the position (positional coordinates) of the moving body is represented by the center coordinates and the radius of the circle. Of course, it may be expressed more strictly. For example, the outline of the region occupied by the moving object on the floor may be approximated using a plurality of line segment vectors.

また、移動体の状態は、人の場合は「座る」、「立つ」、「寝る」、「歩く」等の一般的な人の動作によって表し、ロボット402の場合は、「保持」(又は「把持」若しくは「吸着」)、「解放」等のロボット402が物品に対して行う動作によって表す。なお、ロボット402に関しては、その動作だけでなく、作業対象の物品ID情報と併せて「物品ID:動作内容」と表現する。具体的には例えば、図2Iの位置履歴リスト5の時刻t4として示すように「kan_small_0001把持」となる。状態の特定は、例えば移動体履歴データのサブデータベース406m−2内に、例えば移動体の状態候補を予め複数準備しておき、センシング装置404による検出結果等に基づいて、移動体の状態がどの状態候補に当てはまるかを物品及び移動体検索・管理手段405で判断して行えばよい。   The state of the moving object is represented by general human actions such as “sitting”, “standing”, “sleeping”, “walking”, etc. in the case of a person, and “holding” (or “ This is expressed by an operation performed on the article by the robot 402 such as “gripping” or “adsorption”) or “release”. The robot 402 is expressed as “article ID: operation content” together with the work ID information as well as the operation. Specifically, for example, “kan_small_0001 grasp” is indicated as time t4 in the position history list 5 of FIG. 2I. For example, a plurality of moving object state candidates are prepared in advance in the moving object history data sub-database 406m-2, and the state of the moving object is determined based on the detection result by the sensing device 404, for example. The article and moving object search / management means 405 may determine whether the condition candidate is applicable.

物品及び移動体検索・管理手段405は、物品及び移動体データベース406に物品や移動体の情報を格納し、また各物品や移動体の位置(位置座標)が変更される毎に、その情報を更新する。なお、更新のタイミングはこれに限るものではなく、例えば、所定時間毎に更新するなど、更新のタイミングを適宜設定すればよい。   The article and moving body search / management unit 405 stores information on the article and the moving body in the article and moving body database 406, and stores the information every time the position (positional coordinate) of each article or moving body is changed. Update. Note that the update timing is not limited to this, and the update timing may be set as appropriate, for example, updating every predetermined time.

なお、物品履歴データ及び移動体履歴データは、できるだけ長時間に亘ってデータ蓄積するのが好ましい。これにより、より過去に遡って履歴を調べることができる。また、移動体履歴データは、できるだけ短い時間間隔でデータを蓄積するのが好ましい。これにより、人やロボット等の移動体の移動経路をより細かく管理することができる。ただし、データベースの容量には限界があるため、ある所定期間のデータを蓄積することとし、その期間よりも過去のデータは随時消去してもよい。また、移動体の状態変化が激しいときには、データを蓄積する時間間隔を短くし、状態変化が少ないときには、時間間隔を長くするようにしてもよい。   The article history data and the moving body history data are preferably stored for as long as possible. Thereby, the history can be examined more retroactively. Further, it is preferable that the mobile history data is accumulated at a time interval as short as possible. Thereby, it is possible to manage the moving path of a moving body such as a person or a robot more finely. However, since the capacity of the database is limited, data for a predetermined period may be stored, and data past that period may be deleted as needed. Further, the time interval for accumulating data may be shortened when the state change of the moving body is severe, and the time interval may be lengthened when the state change is small.

(環境マップと設備データベース)
図2J〜図2Lは環境マップデータベース408の環境マップの例である。図2Jは実環境の例、図2Kは図2Jの実環境を立体モデルで簡略化した環境マップ、図2Lはさらに平面モデルで簡略化した環境マップである。
(Environmental map and equipment database)
2J to 2L are examples of environment maps in the environment map database 408. FIG. 2J is an example of an actual environment, FIG. 2K is an environment map obtained by simplifying the actual environment of FIG. 2J with a three-dimensional model, and FIG. 2L is an environment map further simplified with a planar model.

環境マップは、その用途や、作成にかかる時間(手間)に応じて作成すればよい。例えば、立体モデルからなる環境マップを極めて短時間で作成する必要があるときは、図2Kのように、環境内に存在する立体物を、それを覆う最小の直方体でモデル化すればよい。図2Kでは、テーブルTbと本棚Bsはそれぞれ直方体でモデル化され、ゴミ箱Tsは略円柱でモデル化されている。平面モデルからなる環境マップも同様であり、図2Lでは、テーブルTbと本棚Bsは平面に正射影した矩形領域(斜線を付した領域)でそれぞれモデル化され、ゴミ箱Tsは円領域(斜線を付した領域)でモデル化されている。これら2つの矩形領域及び円領域は、ロボット402が移動不可能な領域に設定される。さらに、図2Jに示すような実環境をそのまま立体モデル化したものを、環境マップとしてもよい。   The environment map may be created according to its use and the time (labor) required for creation. For example, when it is necessary to create an environment map composed of a three-dimensional model in a very short time, a three-dimensional object existing in the environment may be modeled with a minimum rectangular parallelepiped covering it as shown in FIG. 2K. In FIG. 2K, the table Tb and the bookshelf Bs are each modeled as a rectangular parallelepiped, and the trash can Ts is modeled as a substantially cylinder. The same applies to the environment map composed of a planar model. In FIG. 2L, the table Tb and the bookshelf Bs are each modeled by a rectangular area (hatched area) orthogonally projected onto the plane, and the trash can Ts is a circular area (hatched area). Area). These two rectangular areas and circular areas are set as areas where the robot 402 cannot move. Further, an environment map obtained by directly converting a real environment as shown in FIG. 2J into a three-dimensional model may be used.

図2Mは環境マップに付随する設備データベース408eの一例を示す図であり、図8の環境に対応したものである。この設備データベースは、設備データと、設備属性データとをそれぞれ蓄積する2つのサブデータベース408e−1,408e−2からなる。   FIG. 2M is a diagram showing an example of the equipment database 408e attached to the environment map, and corresponds to the environment of FIG. This equipment database is composed of two sub-databases 408e-1 and 408e-2 that store equipment data and equipment attribute data, respectively.

1)設備データ
設備データのサブデータベース408e−1に蓄積される設備データは、環境それ自体、及びこの環境内の個々の設備(物品とは異なり、環境に固定又は設置されたものであって、ロボットの取扱い作業の対象外となるもの)を特定するためのID情報(例えば、図2Mにおいて、IDとして「room_0001」など)と、設備属性データへのポインタ(例えば、図2Mにおいて、属性データとして「room01」など)とを含む。より具体的には、図2M9では、環境(部屋)にはID情報として「room_0001」が付され、環境内に存在するテーブルTb、本棚Bs及びゴミ箱Tsには、それぞれ、ID情報として「table_0001」、「bookshelf_0001」、「trash_0001」が付されている。
1) Equipment data The equipment data stored in the equipment data sub-database 408e-1 is the environment itself and the individual equipment in this environment (unlike goods, fixed or installed in the environment, ID information (for example, “room_0001” as an ID in FIG. 2M) and a pointer to equipment attribute data (for example, as attribute data in FIG. 2M) "Room01"). More specifically, in FIG. 2M9, “room_0001” is assigned to the environment (room) as ID information, and “table_0001” is provided as ID information to the table Tb, the bookshelf Bs, and the trash can Ts existing in the environment. , “Bookshelf_0001” and “trash_0001” are attached.

2)設備属性データ
設備属性データのサブデータベース408e−2に蓄積される設備属性データは、環境自体に係る設備属性データは、その環境内の床面データを含む。例えばその環境内に互いに高さの異なる複数の床面が存在するときは、その床面の数だけ床面データ(例えば、図2Mにおいて、room_01の構成面として「床面1,床面2」など)が蓄積される。床面データは、例えば次のように表される。
((X1,Y1,Z1),(X2,Y2,Z2),(X3,Y3,Z3),(X4,Y4,Z4),2200,0)
ここで、最初の4組の座標値は、床面を構成する各頂点の実世界座標を表し、次の値(2200)は、その床面から天井までの距離(mm)を表す。また、最後の値(0)は床面の材質を意味する。例えば、「0」はフローリング、「1」は畳、「2」は絨毯等とすればよい。
2) Equipment attribute data The equipment attribute data stored in the equipment attribute data sub-database 408e-2 includes the equipment attribute data related to the environment itself and the floor data in the environment. For example, when there are a plurality of floor surfaces having different heights in the environment, the floor surface data (for example, “floor surface 1, floor surface 2” in FIG. Etc.) are accumulated. For example, the floor data is expressed as follows.
((X1, Y1, Z1), (X2, Y2, Z2), (X3, Y3, Z3), (X4, Y4, Z4), 2200, 0)
Here, the first four sets of coordinate values represent the real world coordinates of each vertex constituting the floor surface, and the next value (2200) represents the distance (mm) from the floor surface to the ceiling. The last value (0) means the floor material. For example, “0” may be a flooring, “1” may be a tatami mat, “2” may be a carpet, or the like.

家具等の設備に係る設備属性データは、その設備を構成する各面のデータ(面1,面2)、設備の種類、その設備が物品を載置可能な面を有する場合、その面に載置される主な物品の形状とその姿勢を含む。具体的には例えば、設備を構成する面のデータは次のように表される。
((X1,Y1,Z1),(X2,Y2,Z2),(X3,Y3,Z3),1,400)
ここで、最初の3組の座標値は、その面を構成する各頂点の実世界座標を表す。次の値(1)はその面に物品が載置可能な否かのフラグであり、「1」は物品が載置可能、「0」は載置不可能を示す。最後の値(400)は、その面に物品が載置可能であるとき、その載置可能な物品の上限高さ(mm)を示す。例えばその面がテーブルの天板であるときは、天板から天井までの距離が上限高さであり、その面が本棚におけるある一つの棚面であるときには、その棚面から直上の棚までの距離が上限高さとなる。
Equipment attribute data related to equipment, such as furniture, is recorded on the data (surface 1, surface 2) of each surface constituting the facility, the type of facility, and when the facility has a surface on which an article can be placed. This includes the shape and posture of the main article placed. Specifically, for example, the data of the surfaces constituting the equipment are expressed as follows.
((X1, Y1, Z1), (X2, Y2, Z2), (X3, Y3, Z3), 1,400)
Here, the first three sets of coordinate values represent the real world coordinates of each vertex constituting the surface. The next value (1) is a flag indicating whether or not an article can be placed on the surface. “1” indicates that the article can be placed and “0” indicates that the article cannot be placed. The last value (400) indicates the upper limit height (mm) of an article that can be placed when the article can be placed on the surface. For example, when the surface is a table top, the distance from the top to the ceiling is the upper limit height, and when the surface is a shelf on the bookshelf, The distance is the upper limit height.

設備属性データにおける「主な物品の形状」とは、その設備に収容される物品の形状である。設備の種類が本棚であれば、「本の形状」となる。つまり、その幅に比べて奥行きと高さが極端に長い直方体が本棚の主な物品の形状である。また、「主な物品の姿勢」とは、その設備に収容されるときの物品の姿勢である。設備の種類が本棚であれば、その本をどのような姿勢で本棚の棚面に載置するかであり、通常は本を立てた姿勢となる。設備属性データに「主な物品の形状と姿勢」のデータを蓄積することによって、例えば、作業ロボット402に本を本棚に移動させる作業を指定したとき、その作業ロボット402は「主な物品の形状と姿勢」データを基にして、指定された本を立てた姿勢で本棚の棚に載置することができる。   The “main article shape” in the equipment attribute data is the shape of the article accommodated in the equipment. If the type of equipment is a bookshelf, it will be “book shape”. That is, a rectangular parallelepiped whose depth and height are extremely long compared to the width is the shape of the main article on the bookshelf. Further, the “posture of the main article” is the posture of the article when accommodated in the facility. If the type of equipment is a bookshelf, it is the posture in which the book is placed on the shelf surface of the bookshelf, and usually the posture in which the book is set up. By accumulating “main article shape and posture” data in the equipment attribute data, for example, when the work robot 402 is designated to move a book to a bookshelf, the work robot 402 is given a “main article shape”. Based on the “and posture” data, it is possible to place the designated book on the shelf of the bookshelf in a posture in which the book is set up.

ただし、設備の種類によっては、この「主な物品の形状と姿勢」データを有しない場合がある。例えばテーブルやゴミ箱は、物品の形状や姿勢には限定がない。このため、テーブルやゴミ箱の設備属性データは、「主な物品の形状と姿勢」のデータを有しない。   However, this “main article shape and attitude” data may not be provided depending on the type of equipment. For example, a table and a trash can have no limitation on the shape or posture of the article. For this reason, the equipment attribute data of the table and the trash can does not have data of “shape and posture of main article”.

<作業ロボットの構成>
作業ロボット402は、環境内で物品の取扱い作業を行う。ここでは特に、ユーザの指示に従って、環境内で物品を移動させる作業を行うものとする。
<Work robot configuration>
The work robot 402 performs an article handling operation in the environment. Here, in particular, it is assumed that an operation of moving an article in the environment is performed according to a user instruction.

図2A及び図2Fに示すように、ロボット402は、ロボット402の近辺の障害物等を検知する障害物センサ(物品保持システム10の上記認識装置101の別の例として機能することができる装置。)411と、物品を保持する保持装置103を含む物品保持システム10と、ロボット402の送受信手段409及び制御手段415並びに環境管理サーバ401の送受信手段409及び制御手段410及び物品及び移動体検索・管理手段405などを介して環境管理サーバ401の環境マップデータベース408内の環境マップを参照してロボット402の移動計画を立てる移動計画作成手段413と、ロボット402自体を移動させる移動装置414とを備えている。送受信手段409は、制御手段415の制御の基に、環境管理サーバ401や操作端末403との間で種々のデータの送受信を行う。制御手段415は、障害物センサ411と、送受信手段409と、物品保持システム10と、移動計画作成手段413と、移動装置414とに接続されて、それぞれの動作を独立してコントロールする。   2A and 2F, the robot 402 is an obstacle sensor that detects an obstacle or the like in the vicinity of the robot 402 (an apparatus that can function as another example of the recognition device 101 of the article holding system 10). 411, the article holding system 10 including the holding device 103 that holds the article, the transmission / reception means 409 and the control means 415 of the robot 402, the transmission / reception means 409 and the control means 410 of the environment management server 401, and the article / moving object search / management A movement plan creating means 413 for making a movement plan for the robot 402 by referring to the environment map in the environment map database 408 of the environment management server 401 via the means 405 and the like, and a moving device 414 for moving the robot 402 itself are provided. Yes. The transmission / reception unit 409 transmits / receives various data to / from the environment management server 401 and the operation terminal 403 under the control of the control unit 415. The control means 415 is connected to the obstacle sensor 411, the transmission / reception means 409, the article holding system 10, the movement plan creation means 413, and the movement device 414, and controls each operation independently.

前述の図2Aはロボット402の構造の一例を示した模式図であり、このロボット402は、上記したように、移動計画作成手段413や制御手段415等を収容する略箱型の本体部390を備えている。以下、図2Aにおける紙面手前側を前側、紙面奥側を後側、紙面右側を左側、紙面左側を右側と呼ぶ。   FIG. 2A is a schematic diagram illustrating an example of the structure of the robot 402. As described above, the robot 402 includes the substantially box-shaped main body 390 that accommodates the movement plan creation unit 413, the control unit 415, and the like. I have. Hereinafter, the front side of the paper surface in FIG. 2A is referred to as the front side, the back side of the paper surface is referred to as the rear side, the right side of the paper surface is referred to as the left side, and the left side of the paper surface is referred to as the right side.

物品保持システム10の各保持装置103は、前述のように、多関節アーム103bと、そのアーム103bの先端に配設されたハンド103aと、それぞれのアーム103b及びハンド103aを独立してそれぞれ駆動させる駆動装置とから構成され、本体部390の両側部の上部に取り付けられている。それぞれのアーム103b及びハンド103aの駆動装置は、モータ制御によるアクチュエータにより構成するようにしてもよいし、その他のアクチュエータ、例えば人工筋肉によるアクチュエータにより構成するようにしてもかまわない。また、保持装置103として、さらに、空気の吸引により物品を保持する吸着ハンド103sを備える場合には、吸着ハンド103sと吸着ハンド103sの吸引動作及び吸引解除動作を制御する吸引装置により構成するようにしても構わない。   As described above, each holding device 103 of the article holding system 10 independently drives the articulated arm 103b, the hand 103a disposed at the tip of the arm 103b, and each arm 103b and the hand 103a independently. It is comprised from the drive device, and is attached to the upper part of the both sides of the main-body part 390. The driving device for each arm 103b and hand 103a may be configured by an actuator controlled by a motor, or may be configured by another actuator, for example, an actuator by an artificial muscle. Further, when the holding device 103 further includes a suction hand 103 s that holds an article by air suction, the holding device 103 is configured by a suction device that controls the suction operation and the suction release operation of the suction hand 103 s and the suction hand 103 s. It doesn't matter.

また、上記ロボットによる物品保持システム10では、環境内に存在する各物品に電子タグが付されているとして、それぞれの保持装置103には、環境管理サーバ401のセンシング装置404の一例としてのタグリーダ404aを取り付けている(図2A参照)。これにより、保持装置103が物品を保持したときに、保持した物品の電子タグに書き込まれた情報をタグリーダ404aが読み取り、読み取られた情報によって、保持装置103により保持した物品が何であるかを、環境管理サーバ401の物品及び移動体検索・管理手段405で物品及び移動体データベース406を参照して特定することができる。なお、保持装置103に取り付けるタグリーダ404aは省略し、環境に設置されたタグリーダ404aを利用するようにしてもかまわない。   Further, in the article holding system 10 using the robot, an electronic tag is attached to each article existing in the environment, and each holding device 103 has a tag reader 404a as an example of the sensing device 404 of the environment management server 401. (See FIG. 2A). Thereby, when the holding device 103 holds the article, the tag reader 404a reads the information written on the electronic tag of the held article, and by the read information, what is the article held by the holding device 103, The article and moving object search / management unit 405 of the environment management server 401 can specify the item and moving object database 406 with reference to the article and moving object database 406. Note that the tag reader 404a attached to the holding device 103 may be omitted, and the tag reader 404a installed in the environment may be used.

移動装置414は、4つの車輪394と、4つの車輪394を正逆回転駆動するモータ304と、モータ304を駆動制御するモータドライバと303などによって構成されており(図2C参照)、これらの車輪394は、本体部390の左右両側にそれぞれ2つずつ取り付けられている(図2Aの例では、右後側の車輪394の図示を省略する)。なお、移動装置414の構成は、そのロボット402が使用される環境に応じて最適な構成を選択すればよい。例えば環境の床面の起伏が激しい場合は、移動装置414をクローラ型や多足歩行型に構成することが好ましい。   The moving device 414 includes four wheels 394, a motor 304 that drives the four wheels 394 to rotate in the forward and reverse directions, a motor driver 303 that drives and controls the motor 304, and the like (see FIG. 2C). Two 394 are attached to each of the left and right sides of the main body 390 (illustration of the wheel 394 on the right rear side is omitted in the example of FIG. 2A). Note that the configuration of the moving device 414 may be selected in accordance with the environment in which the robot 402 is used. For example, when the undulation of the floor of the environment is severe, it is preferable to configure the moving device 414 in a crawler type or a multi-legged walking type.

障害物センサ411は、ここでは、超音波センサ411a、視覚センサとしての一対のカメラ105、及び衝突センサ411cとから構成されている。それぞれの超音波センサ411aは、超音波を発してその反射波を受信するまでの時間を測定することによって障害物までのおおよその距離を計算し、近距離の障害物をロボット402との衝突前に検知する。超音波センサ411aは、一例として、本体部390の各側面(前面、後面、左右側面)の下部に3個ずつ取り付けられている。また、それぞれのカメラ105は、ロボット402の周囲の状況を画像として入力する。この画像に対して認識処理等を行うことによって、障害物の有無を判断したり、保持対象物品についてより正確な情報を得たりする。カメラ105は、本体部390の前部の上部に取り付けられている。さらに、衝突センサ411cは、ロボット402に所定の衝撃力が加わったことを検知する。例えば障害物がロボット402に衝突してきたり、ロボット402自体が移動中に障害物に衝突したことを、衝突センサ411cによって検知する。衝突センサ411cは、本体部390の前面と後面の下部にそれぞれ取り付けられている。   Here, the obstacle sensor 411 includes an ultrasonic sensor 411a, a pair of cameras 105 as a visual sensor, and a collision sensor 411c. Each ultrasonic sensor 411a calculates the approximate distance to the obstacle by measuring the time until the reflected wave is received after emitting the ultrasonic wave. To detect. As an example, three ultrasonic sensors 411a are attached to the lower part of each side surface (front surface, rear surface, left and right side surfaces) of the main body 390. Each camera 105 inputs the situation around the robot 402 as an image. By performing recognition processing or the like on this image, it is possible to determine the presence or absence of an obstacle or to obtain more accurate information about the article to be held. The camera 105 is attached to the upper part of the front part of the main body 390. Further, the collision sensor 411c detects that a predetermined impact force is applied to the robot 402. For example, the collision sensor 411c detects that an obstacle has collided with the robot 402 or that the robot 402 itself has collided with the obstacle while moving. The collision sensor 411c is attached to the lower part of the front surface and the rear surface of the main body 390, respectively.

移動計画作成手段413は、物品の移動作業やその他の作業に伴う移動が指定されたとき、ロボット402の現在位置の位置座標から目的位置の位置座標までの移動経路を、環境マップデータベース408の環境マップを参照して作成する。環境マップには、図2Lに示すように、移動不可領域(斜線を付した領域)が設定されている。このため、この移動不可領域以外の領域で移動経路を作成すれば、障害物を回避した移動経路が作成できる。例えば図2Lにおいて、A地点からB地点までの移動の際には、ロボット402の大きさを考慮して、矢線で示すような移動不可領域を回避するルートが作成される。移動経路の作成には、最も一般的なダイクストラ法を用いればよいし、環境が複雑な場合は、ダイクストラ法を改良した経路探索アルゴリズムを用いてもよい。なお、環境が複雑すぎるため、移動経路の算出ができない、あるいは、その算出に多大な時間を要するような場合の対策として、ユーザが操作端末403を使用してロボット402の移動経路を移動計画作成手段413に指定するモードを設けてもよい。   The movement plan creation means 413 indicates the movement path from the position coordinates of the current position of the robot 402 to the position coordinates of the target position of the environment map database 408 when the movement of the article or movement associated with other work is designated. Create by referring to the map. In the environment map, as shown in FIG. 2L, a non-movable area (a hatched area) is set. For this reason, if a movement route is created in an area other than the non-movable area, a movement path avoiding an obstacle can be created. For example, in FIG. 2L, when moving from point A to point B, a route that avoids a non-movable region as shown by an arrow line is created in consideration of the size of the robot 402. The most common Dijkstra method may be used to create a movement route. If the environment is complicated, a route search algorithm improved from the Dijkstra method may be used. As a countermeasure when the travel route cannot be calculated because the environment is too complex, or the calculation takes a long time, the user uses the operation terminal 403 to create a travel plan for the travel route of the robot 402. A mode designated in the means 413 may be provided.

(ロボットの制御コマンド)
作業ロボット402の制御手段415は、主に環境管理サーバ401から環境管理サーバ側及び作業ロボット側の送受信手段409,409を介して送られてきたロボット制御コマンド列を解釈し、その制御コマンドを順に実行する。
(Robot control commands)
The control means 415 of the work robot 402 mainly interprets the robot control command sequence sent from the environment management server 401 via the environment management server side and the transmission / reception means 409, 409 on the work robot side, and sequentially outputs the control commands. Execute.

ロボット制御コマンドとは、物品の保持や、ロボット402自体の移動の制御を行うためのコマンドであり、大きくわけると、主として「移動」、「保持」、「解放」の3種類がある。この3種類のコマンドについて簡単に説明する。   The robot control command is a command for controlling the holding of the article and the movement of the robot 402 itself, and is roughly divided into three types: “move”, “hold”, and “release”. These three types of commands will be briefly described.

1)移動:(move,座標)又は(move,設備ID)
ロボット402の現在位置の位置座標から位置座標で指定された位置、又は設備ID情報で指定された設備の位置の位置座標まで移動するコマンドである。位置座標は世界座標系で指定し、現在位置の位置座標から目的位置の位置座標までの移動経路は移動計画作成手段413が計画する。また、設備ID情報で指定された設備の位置の位置座標に移動するときは、その設備に対して所定の距離まで近づくような経路を作成するが、この場合、環境マップ内の設備属性データを利用する。
1) Movement: (move, coordinates) or (move, equipment ID)
This is a command to move from the position coordinates of the current position of the robot 402 to the position specified by the position coordinates or the position coordinates of the equipment position specified by the equipment ID information. The position coordinates are specified in the world coordinate system, and the movement plan creation means 413 plans the movement path from the position coordinates of the current position to the position coordinates of the target position. In addition, when moving to the position coordinates of the position of the equipment specified by the equipment ID information, a route that approaches the equipment to a predetermined distance is created. In this case, the equipment attribute data in the environment map is Use.

2)保持:(grab,物品ID)
物品ID情報で指定された物品を、保持装置103の一例としてのハンド103bによって保持するコマンドである。物品の位置(位置座標)は、物品及び移動体データベース406を参照して求め、保持計画及び保持解放計画は物品保持システム10の上記保持方法特定手段102が作成する。
2) Retention: (grab, item ID)
This is a command for holding the article specified by the article ID information by the hand 103b as an example of the holding device 103. The position (position coordinates) of the article is obtained with reference to the article and moving body database 406, and the holding plan and the holding release plan are created by the holding method specifying means 102 of the article holding system 10.

3)解放:(release)
保持解放計画に基づき、ハンド103bを解放するコマンドである。
3) Release: (release)
This is a command for releasing the hand 103b based on the holding release plan.

例えば、ある物品をある場所に移動させる作業がユーザから指示されたときは、その作業は、「(物品の位置B1への)移動」と、「(物品の)保持」と、「(移動先B2への)移動」と、「(物品の保持)解放」という4つの作業単位に分解される。この場合のロボット制御コマンド列は、
move,B1(物品が置かれている位置B1にロボット402を移動する)
grab,物品ID(位置B1にある物品を保持装置103で保持する)
move,B2((物品を保持装置103で保持した状態で)移動先である位置B2にロボット402が移動する)
release(保持装置103で保持している物品を解放する)
となる。複数の物品の移動を指示されたときは、コマンド列は、上記4つのコマンドを一組として物品の数だけ並べられ、ロボット402の制御手段415は、その順番に従って制御コマンドを順に実行する。
For example, when the user gives an instruction to move a certain article to a certain place, the operations are “movement (to the position B1 of the article)”, “(holding of the article)”, “(destination). It is broken down into four units of work: “movement to B2” and “(holding of goods) release”. The robot control command sequence in this case is
move, B1 (moves the robot 402 to the position B1 where the article is placed)
grab, article ID (the article at position B1 is held by holding device 103)
move, B2 (the robot 402 moves to the destination position B2 (with the article held by the holding device 103))
release (releases the item held by the holding device 103)
It becomes. When instructed to move a plurality of articles, the command sequence is arranged by the number of articles with the above four commands as a set, and the control means 415 of the robot 402 executes the control commands in order according to the order.

もちろん、ロボット制御コマンドはこの3種類に限られるものではなく、必要に応じて増やしてもよいことはいうまでもない。   Of course, the robot control commands are not limited to these three types, and needless to say, they may be increased as necessary.

図21は、制御手段415の動作例を示すフローチャートである。制御手段415は、環境管理サーバ401から送信された制御コマンド列をロボット側の送受信手段409が受信したとき又は物品保持システム10から制御コマンド列が入力されたとき、どの作業単位であるかを判定し(図21のステップS101〜S103)、その作業単位に応じた処理を実行する。   FIG. 21 is a flowchart showing an operation example of the control means 415. The control unit 415 determines which unit of work the control command sequence transmitted from the environment management server 401 is received by the robot-side transmission / reception unit 409 or when the control command sequence is input from the article holding system 10. (Steps S101 to S103 in FIG. 21), and processing according to the unit of work is executed.

まず、作業単位が「移動」のときは(図21のステップS101でYES)、指定された位置(位置座標)までの経路を移動計画作成手段413に作成させる(ステップS104)。そして、移動計画作成手段413によって作成されて経路に応じて移動制御コマンドを移動装置414に送り、指定された位置(位置座標)までの移動処理を実行する(ステップS105)。   First, when the unit of work is “move” (YES in step S101 in FIG. 21), the route to the designated position (position coordinates) is created by the movement plan creation unit 413 (step S104). Then, a movement control command is sent to the moving device 414 according to the route created by the movement plan creating means 413, and the movement process to the designated position (position coordinates) is executed (step S105).

また、作業単位が「保持」のときは(ステップS101でNOでかつステップS102でYES)、障害物センサ411によって保持対象物品の姿勢を検出する(ステップS106)とともに、その検出結果に応じてアーム103aとハンド103bの動作を計算する(ステップS107)。そして、保持制御コマンドを制御手段415から物品保持システム10の保持装置103に送り、保持装置103による物品の保持処理を実行する(ステップS108)。なお、ステップS106において、物品の姿勢は環境管理サーバ401の物品及び移動体データベース406に記録されているので、環境管理サーバ401に物品の姿勢を問い合わせるようにしてもよい。   When the unit of work is “hold” (NO in step S101 and YES in step S102), the obstacle sensor 411 detects the posture of the object to be held (step S106), and the arm according to the detection result. The operations of 103a and hand 103b are calculated (step S107). Then, a holding control command is sent from the control means 415 to the holding device 103 of the article holding system 10, and an article holding process by the holding device 103 is executed (step S108). In step S106, since the posture of the article is recorded in the article and mobile object database 406 of the environment management server 401, the attitude of the article may be inquired of the environment management server 401.

また、作業単位が「解放」のときは(ステップS101でNOでかつステップS102でNOでかつステップS103でYES)、指定された移動先に物品が設置されるようにアーム103aとハンド103bの動作を計算する(ステップS109)。そして、解放制御コマンドを制御手段415から保持装置103に送り、物品の解放処理を実行する(ステップS110)。   When the unit of work is “release” (NO in step S101, NO in step S102, and YES in step S103), the operation of the arm 103a and the hand 103b so that the article is placed at the designated destination. Is calculated (step S109). Then, a release control command is sent from the control means 415 to the holding device 103, and an article release process is executed (step S110).

移動、保持及び解放の各動作が終了したとき、その旨をメッセージとして作業指示元である環境管理サーバ401に制御手段415の制御の基に送信する(ステップS111)。このようにして、操作端末403によって指示された作業内容が、ロボット402によって実行される。   When the movement, holding, and release operations are completed, a message to that effect is sent to the environment management server 401, which is the work instruction source, under the control of the control means 415 (step S111). In this way, the work content instructed by the operation terminal 403 is executed by the robot 402.

<操作端末の構成>
操作端末403は、上記ロボットによる物品保持システムにおけるユーザインタフェースであり、ユーザが、ロボット402に対して物品の取扱い作業を指示したり、物品に関する問合せをしたりするために操作する端末である。
<Configuration of operation terminal>
The operation terminal 403 is a user interface in the article holding system by the robot, and is a terminal that the user operates to instruct the robot 402 to handle the article and to inquire about the article.

図2Fに示すように、操作端末403は、操作画面を表示する、例えばCRTや液晶ディスプレイからなる表示装置417と、表示装置417の操作画面上でロボット402に対して作業内容を指示するための例えばポインティングデバイスからなる入力装置416と、表示装置417に表示される操作画面の作成等の表示制御を行う表示制御手段418とを備えている。送受信手段409は、制御手段419の制御の基に、入力装置416に入力されたロボット402の作業内容や問合せ内容をサーバ401に送るとともに、問合せに対する回答を環境管理サーバ401から受信する。制御手段419は、送受信手段409と、入力装置416と、表示装置417と、表示制御手段418とに接続されて、それぞれの動作を独立してコントロールする。   As shown in FIG. 2F, the operation terminal 403 displays an operation screen, for example, a display device 417 composed of a CRT or a liquid crystal display, and for instructing the robot 402 on the operation content on the operation screen of the display device 417. For example, an input device 416 including a pointing device and display control means 418 for performing display control such as creation of an operation screen displayed on the display device 417 are provided. The transmission / reception means 409 transmits the work contents and inquiry contents of the robot 402 input to the input device 416 to the server 401 and receives an answer to the inquiry from the environment management server 401 under the control of the control means 419. The control means 419 is connected to the transmission / reception means 409, the input device 416, the display device 417, and the display control means 418, and controls each operation independently.

この操作端末403としては、例えば汎用PC(パーソナルコンピュータ)を用いることも可能である。この場合、各処理を実行させる制御プログラムを汎用PCに読み込ませることによって、操作端末403として用いることが可能になる。   For example, a general-purpose PC (personal computer) can be used as the operation terminal 403. In this case, the general-purpose PC can be used as the operation terminal 403 by reading a control program that executes each process.

表示制御手段418は、環境管理サーバ401から送信された情報、具体的には、センシング装置404としてのカメラが環境内を撮像した画像のデータ、物品及び移動体データベース406に蓄積されたデータ、環境マップデータベース408に蓄積された環境マップに基づいて、操作画面を作成する。作成された操作画面は、表示装置417に表示される。   The display control means 418 includes information transmitted from the environment management server 401, specifically, data of an image captured by the camera as the sensing device 404 in the environment, data stored in the article and mobile object database 406, environment An operation screen is created based on the environment map stored in the map database 408. The created operation screen is displayed on the display device 417.

すなわち、以上のようなシステムでは、操作端末403が、所定の生活空間を表す画像を表示装置417に表示し、ユーザが操作端末403から、画像に含まれた物品に対する操作の指示を行い、操作端末403から送信されたユーザの指示を、環境管理サーバ401が、物品及び移動体データベース406を参照して、ロボット402が実行可能な制御コマンドに変換し、ロボット402に送信する。このような物品操作方法によって、ユーザは、生活空間の複雑な状況において、作業ロボット、言い換えれば、生活支援ロボット402に的確な動作を、容易に実行させることができる。   That is, in the system as described above, the operation terminal 403 displays an image representing a predetermined living space on the display device 417, and the user gives an operation instruction to the article included in the image from the operation terminal 403. The environment management server 401 refers to the article and moving body database 406 and converts the user instruction transmitted from the terminal 403 into a control command that can be executed by the robot 402 and transmits the control command to the robot 402. By such an article operation method, the user can easily cause the work robot, in other words, the life support robot 402 to perform an accurate operation in a complicated situation in the living space.

また、上記物品保持システム10によって、それぞれの保持装置103は、保持対象物の位置(位置座標)、ID情報、形状といった対象物情報、及び人物の位置(位置座標)、ID情報といった人物の情報を利用して、保持動作を行うことが可能である。   In addition, by the article holding system 10, each holding device 103 causes the object information such as the position (position coordinates), ID information, and shape of the object to be held, and the person information such as the position (position coordinates) and ID information of the person. It is possible to perform a holding operation using

以下、上記物品保持システム10による物品の保持について、具体的な例を挙げて説明する。   Hereinafter, the holding of the article by the article holding system 10 will be described with a specific example.

(1.内部に物体を収容可能な物品の保持)
上記したように、例えばグラス等の、内部に液体を入れる物品を保持する場合には、その内部に液体が入っているか否かという状況に応じて、保持方法を変えることが好ましい。つまり、内部に液体が入っているグラスを保持するときには、そのグラスを傾けたり、そのグラスに振動を与えたりすると液体をこぼすことになるため、そのグラスはできるだけ水平な状態でかつ振動を与えないような姿勢制御を行うことが好ましい。これに対し、内部に液体が入っていないグラスを保持するときには、そのような姿勢制御は特に必要ない。
(1. Holding articles that can accommodate objects inside)
As described above, when holding an article such as a glass that contains a liquid, it is preferable to change the holding method depending on whether or not the liquid is inside. In other words, when holding a glass that contains liquid, tilting the glass or applying vibration to the glass will spill liquid, so the glass is as horizontal as possible and does not vibrate. It is preferable to perform such attitude control. On the other hand, when holding a glass in which no liquid is contained, such attitude control is not particularly necessary.

そこで、上記物品保持システム10の保持装置103は、内部に物体を収容可能な物品(ここではグラス)を保持するときに、上記認識装置101の一例としてのカメラなどによって、その内部に物体が収容されているか否か(ここではグラスに水が入っているか否か)を認識する。この認識方法の一例として、光の屈折を利用した認識方法が挙げられる。   Therefore, the holding device 103 of the article holding system 10 accommodates an object in the interior thereof by a camera as an example of the recognition apparatus 101 when holding an article (here, a glass) that can accommodate the object. Is recognized (in this case, whether the glass has water). An example of this recognition method is a recognition method using light refraction.

図3は、光の屈折を利用してグラス201の内容物の認識を行う認識装置101の構成を示す図である。この認識装置101は、グラス201に対して投光する光源104と、グラス201に投光された状態を撮像する撮像装置105と、撮像装置105で撮像された情報を認識処理する上記認識処理部101pとをさらに有する。光源104は、指向性の強い光を照射するものが好ましく、例えばレーザ照射装置とすることが可能である。撮像装置105は、レーザ照射装置104から照射されたレーザ光線の軌跡を検出可能であればよく、例えばカメラとすることができる。レーザ照射装置104は、図2Aに示すように、ロボット402のアーム103gに取り付けて、その位置(位置座標)を変更可能にすることが好ましい。また、カメラ105は、人型ロボット402の顔に埋め込むように構成してもよい。   FIG. 3 is a diagram illustrating a configuration of a recognition apparatus 101 that recognizes the contents of the glass 201 using light refraction. The recognition apparatus 101 includes a light source 104 that projects light onto the glass 201, an imaging apparatus 105 that captures an image projected on the glass 201, and the recognition processing unit that performs recognition processing on information captured by the imaging apparatus 105. 101p. The light source 104 is preferably one that emits light having high directivity. For example, a laser irradiation apparatus can be used. The imaging device 105 may be a camera, for example, as long as it can detect the locus of the laser beam emitted from the laser irradiation device 104. As shown in FIG. 2A, the laser irradiation device 104 is preferably attached to the arm 103g of the robot 402 so that its position (positional coordinates) can be changed. Further, the camera 105 may be configured to be embedded in the face of the humanoid robot 402.

上記認識装置101は、上記グラス201の内容物を認識するに際し、上記レーザ照射装置104によって、保持対象物(ここでは光透過性を有するグラス201)にレーザ光線104gを照射する。   When recognizing the contents of the glass 201, the recognizing device 101 irradiates the object to be held (here, the light-transmitting glass 201) with the laser beam 104 g by the laser irradiation device 104.

通常、気体(空気)の屈折率と液体(水)の屈折率とは異なる(例えば空気の屈折率は1.0、水の屈折率は約1.33)ため、グラス201の内部に液体201eは入っているか否かによって、レーザ光線104gの軌跡が変わる。つまり、図3Aに示すように、グラス201が空のときには、グラス201の内もグラス201の外も空気で満たされているため、そのグラス201に対し斜め上方から照射したレーザ光線104gは、図3Aに示すように直進する。これに対し、図3Bに示すように、グラス201に水201eが入れられているときには、空気の屈折率と水201eの屈折率とが異なるため、照射したレーザ光線104gは屈折する。   Usually, the refractive index of gas (air) is different from the refractive index of liquid (water) (for example, the refractive index of air is 1.0 and the refractive index of water is about 1.33). The trajectory of the laser beam 104g changes depending on whether or not it is present. That is, as shown in FIG. 3A, when the glass 201 is empty, both the inside of the glass 201 and the outside of the glass 201 are filled with air. Go straight as shown in 3A. On the other hand, as shown in FIG. 3B, when water 201e is placed in the glass 201, the refractive index of air and the refractive index of water 201e are different, so that the irradiated laser beam 104g is refracted.

レーザ照射装置104がレーザ光線104gを照射している最中に、上記認識装置101は、カメラ105によってそのグラス201を撮像する。このことにより、レーザ光線104gの軌跡を検出する。認識処理部101pは、その検出結果に基づいてグラス201の内部に液体201eが入っているか否かを認識する。尚、光の屈折率は、物体(材質)によって異なるため、レーザ光線104gの屈折角度を検出することによって、グラス201の内部に入れられている物体の材質を検出することも可能になる。   While the laser irradiation device 104 is irradiating the laser beam 104 g, the recognition device 101 images the glass 201 with the camera 105. Thereby, the locus of the laser beam 104g is detected. The recognition processing unit 101p recognizes whether or not the liquid 201e is contained in the glass 201 based on the detection result. Since the refractive index of light varies depending on the object (material), it is possible to detect the material of the object placed inside the glass 201 by detecting the refraction angle of the laser beam 104g.

上記保持方法特定手段102は、上記認識処理部101pの認識結果に基づいて、保持方法の特定を行う。この特定は、保持方法データベース102dを利用して行うが、必要に応じて、物品及び移動体データベース406を参照してもよい。   The holding method specifying unit 102 specifies the holding method based on the recognition result of the recognition processing unit 101p. Although this specification is performed using the holding method database 102d, the article and mobile object database 406 may be referred to as necessary.

上記保持方法データベース102dには、詳しくは、先に図2Eで述べたように保持レベル毎に保持方法が決められているが、ここでは、簡略して、保持対象となる物品毎に、内容物の有無により異なる保持方法が記載されたテーブルが設けられているとする(図4A参照)。各テーブルは、その物品の取り得る状況(例えば、内容物の有無の状況)と、その状況に最適な保持方法と、が対応付けられて記憶されている。図4Aは、グラス201に対応するテーブルの一例を示していて、グラス201が取り得る状況として「内容物有」(図4D参照)と「内容物無」(図4B参照)とが含まれ、「内容物有」に対応する保持方法として「指型ハンドを使って、姿勢制御を行う」ことが設定され(図4E参照)、「内容物無」に対応する保持方法として「吸着ハンドを使って、姿勢制御を行わない」ことが設定されている(図4C参照)。   Specifically, in the holding method database 102d, as described above with reference to FIG. 2E, the holding method is determined for each holding level, but here, for the sake of simplicity, the contents are stored for each article to be held. It is assumed that a table in which different holding methods are described depending on the presence or absence of is provided (see FIG. 4A). Each table stores a situation that can be taken by the article (for example, the presence or absence of contents) and a holding method that is optimal for the situation in association with each other. FIG. 4A shows an example of a table corresponding to the glass 201, and the situations that the glass 201 can take include “contents present” (see FIG. 4D) and “contents absent” (see FIG. 4B). “Use finger-type hand to perform posture control” is set as the holding method corresponding to “contents present” (see FIG. 4E), and “holding hand is used” as the holding method corresponding to “no contents” The posture control is not performed ”(see FIG. 4C).

従って、上記保持方法特定手段102は、上記認識装置101がグラス201の内容物有と認識したときには、保持方法データベース102dを参照することによって「指型ハンドを使って、姿勢制御を行う」保持方法(図4E参照)を特定(選択)し、グラス201の内容物無と認識したときには、保持方法データベース102dを参照することによって「吸着ハンドを使って、姿勢制御を行わない」保持方法(図4C参照)を特定(選択)する。   Therefore, when the recognition device 101 recognizes that the contents of the glass 201 are present, the holding method specifying unit 102 refers to the holding method database 102d to hold the posture control using the finger type hand. When specifying (selecting) (see FIG. 4E) and recognizing that the contents of the glass 201 are absent, the holding method (FIG. 4C) does not perform posture control using the suction hand by referring to the holding method database 102d. (See) is specified (selected).

上記保持装置103は、上記保持方法特定手段102によって特定された保持方法に従って、制御手段415の制御の基に、保持対象物の保持を実行する。従って、上記保持装置103は、グラス201内に水が満たされているとき(図4D参照)には、指型ハンド103aによってグラス201が水平姿勢を保つように姿勢制御をしながらグラス201を保持する(図4E参照)。一方、グラス201が空であるとき(図4B参照)には、吸着ハンド103sによってそのグラス201を保持する(図4C参照)。このとき、グラス201の姿勢制御は行わない。   The holding device 103 performs holding of the holding object under the control of the control unit 415 in accordance with the holding method specified by the holding method specifying unit 102. Therefore, when the glass 201 is filled with water (see FIG. 4D), the holding device 103 holds the glass 201 while controlling the posture so that the glass 201 maintains a horizontal posture by the finger type hand 103a. (See FIG. 4E). On the other hand, when the glass 201 is empty (see FIG. 4B), the glass 201 is held by the suction hand 103s (see FIG. 4C). At this time, the attitude control of the glass 201 is not performed.

尚、保持装置103が保持対象物を保持するためには、その保持対象物の位置(位置座標)、形状、及び姿勢情報が必要となる。これらの情報は、例えばレンジファインダやステレオ視、等を利用した、種々の公知の方法により取得可能である。保持対象物の位置(位置座標)、形状、及び姿勢情報の取得方法の詳細は後述するが、物品及び移動体データベース406を参照すればよい。   Note that in order for the holding device 103 to hold the holding object, the position (position coordinates), shape, and orientation information of the holding object are required. Such information can be acquired by various known methods using, for example, a range finder or stereo vision. Details of the method of acquiring the position (position coordinates), shape, and orientation information of the holding object will be described later, but the article and moving object database 406 may be referred to.

このように、上記で例示したグラス201のような、その内部に物体を収容可能な物品は、その内部に物体が収容されたり、収容されなかったりして、時間に対して状況が変化する。そうした物品を保持装置103によって保持するときに、認識装置101は、上記物品(保持対象物)の内部に物体が収容されているか否かを認識し、保持方法特定手段102は、内部に物体が収容されているか否かに応じて保持方法を特定する。このことにより、その内部に物体を収容可能な物品を、その状況に合わせて最適に保持することができる。   As described above, an article that can accommodate an object, such as the glass 201 exemplified above, changes its state with respect to time depending on whether the object is accommodated or not accommodated therein. When such an article is held by the holding device 103, the recognition apparatus 101 recognizes whether or not an object is contained inside the article (holding object), and the holding method specifying unit 102 determines whether the object is inside. The holding method is specified depending on whether or not it is accommodated. This makes it possible to optimally hold an article that can accommodate an object in accordance with the situation.

(変形例)
上記保持方法特定手段102が参照する保持方法データベース102dは、物品保持システム10が有している必要はなく、例えば保持対象物(各物品)に電子タグ等のタグを付し、そのタグに、保持対象物の状況に応じた保持方法などの情報を予め書き込んでおいてもよい。この場合、保持方法特定手段102は、保持対象物に付されたタグ内の上記保持方法などの情報を参照することによって、認識結果に応じた保持方法を特定することができる。
(Modification)
The holding method database 102d referred to by the holding method specifying unit 102 does not need to be included in the article holding system 10. For example, a tag such as an electronic tag is attached to the holding object (each article), Information such as a holding method according to the status of the holding object may be written in advance. In this case, the holding method specifying unit 102 can specify the holding method according to the recognition result by referring to information such as the holding method in the tag attached to the holding object.

また、上記タグに、上記保持方法などの情報を予め書き込むのではなく、タグに、上記保持方法などの情報が蓄積されたデータベースを有するサーバのアドレス(インターネットアドレス)を記憶しておいてもよい。この場合、保持方法特定手段102は、上記アドレスにアクセスしてデータベースの上記保持方法などの情報を参照することによって、認識結果に応じた保持方法を特定する。尚、これらの情報を記憶する媒体は電子タグに限らない。例えば光学的なタグ、バーコード、2次元バーコード、等であってもよい。   Further, instead of pre-writing information such as the holding method in the tag, the tag may store the address (Internet address) of a server having a database in which information such as the holding method is accumulated. . In this case, the holding method specifying unit 102 specifies the holding method according to the recognition result by accessing the address and referring to information such as the holding method in the database. The medium for storing these information is not limited to the electronic tag. For example, an optical tag, a barcode, a two-dimensional barcode, etc. may be used.

また、上記物品保持システム10は、図3A及び図3Bではレーザ光線104gの軌跡に基づいてグラス201の内容物の有無を認識しているが、光の屈折を利用した認識はこれに限るものではない。例えばカメラ105に対する相対的な位置(位置座標)が判明している物体をグラス201を通して撮像し、その物体がグラス201上のどの位置(位置座標)に見えるか、を検出することによってグラス201の内容物の有無を認識することができる。この場合、撮影対象物は、その環境(一般家庭であれば部屋)に存在している物体を利用することができる。ここで、相対的な位置(位置座標)は、例えば、図23に示されるように、部屋の天井500にカメラ505を取り付け、そのカメラ505の画像から地図情報を作成しておき、作成された地図情報内での位置座標を物品及び移動体データベース406や保持方法データベース102dなどのデータベースに予め記憶させておくことにより、求めることができる。   Further, in FIG. 3A and FIG. 3B, the article holding system 10 recognizes the presence or absence of the contents of the glass 201 based on the locus of the laser beam 104g, but recognition using light refraction is not limited to this. Absent. For example, an object whose relative position (positional coordinates) is known with respect to the camera 105 is imaged through the glass 201, and the position (positional coordinates) on the glass 201 is detected to detect the position of the glass 201. The presence or absence of contents can be recognized. In this case, an object existing in the environment (a room in a general home) can be used as the photographing object. Here, for example, as shown in FIG. 23, the relative position (positional coordinates) is created by attaching a camera 505 to the ceiling 500 of the room and creating map information from the image of the camera 505. The position coordinates in the map information can be obtained by storing in advance in a database such as the article and moving body database 406 and the holding method database 102d.

さらに、グラス201の内容物の有無は光の屈折を利用する以外でも、認識することが可能である。   Furthermore, the presence / absence of the contents of the glass 201 can be recognized other than using refraction of light.

例えば重量センサを利用してグラス201の重さを量ることによって、グラス201の内容物の有無を認識してもよい。この場合は、空のグラス201の重量が予め判っていることが必要であるが、空のグラス201の重量は例えばグラス201に取り付けたタグに埋め込んでおいてもよい。また、重量センサは保持装置103に取り付けて、保持方法を特定する前に保持装置103によってグラス201を保持することによってグラス201の重さを量ってもよいし、グラス201が置かれている棚、テーブル等に重量センサを取り付けて、グラス201の重さを量ってもよい。重量センサを利用した認識は、保持対象物が光透過性を有している必要はなく、どのような物品に対しても認識が可能になるという利点がある。また、重量センサを利用した状況の認識は、例えば皿等を保持する際に、その皿の上に料理等が載っているか、を認識するときにも適用可能である。   For example, the presence or absence of the contents of the glass 201 may be recognized by measuring the weight of the glass 201 using a weight sensor. In this case, the weight of the empty glass 201 needs to be known in advance, but the weight of the empty glass 201 may be embedded in a tag attached to the glass 201, for example. Further, the weight sensor may be attached to the holding device 103 and the glass 201 may be weighed by holding the glass 201 by the holding device 103 before specifying the holding method, or the glass 201 is placed. The weight of the glass 201 may be measured by attaching a weight sensor to a shelf, a table, or the like. Recognition using a weight sensor has the advantage that the object to be held need not be light-transmitting and can be recognized for any article. Moreover, the recognition of the situation using a weight sensor can also be applied when recognizing whether a dish or the like is on the plate when holding the plate or the like.

また、例えば水滴センサを利用してグラス201の内容物の有無を認識してもよい。水滴センサは、ロボット402のアーム103b先端に取り付けて、グラス201の外表面にセンサを接触可能にすればよい。この場合、水滴がついていると判断されたときには「内容物有」、水滴がついていない場合には「内容物無」として、図4Aのテーブルを参照することで保持方法を決定することができる。   For example, the presence or absence of the contents of the glass 201 may be recognized using a water drop sensor. The water drop sensor may be attached to the tip of the arm 103b of the robot 402 so that the sensor can contact the outer surface of the glass 201. In this case, the holding method can be determined by referring to the table of FIG. 4A as “contents present” when it is determined that water droplets are attached, and “no contents” when water droplets are not attached.

(2.形態の変化に対応した保持方法の特定)
次に、形態が変化する物品の保持について説明する。立体的な形状を有する物品(例えば紙くず)202aを保持(把持する)ときには、図5Aに示すように、指型ハンド103aによって、その物品を上から挟むことが一般的である。
(2. Identification of holding method corresponding to changes in form)
Next, holding of an article whose form changes will be described. When holding (holding) an article (for example, paper waste) 202a having a three-dimensional shape, as shown in FIG. 5A, the article is generally sandwiched from above by a finger-type hand 103a.

これに対し、その物品がシート状の物品202bであるとき、例えば床に置かれた一枚の紙や布であるときには、上記の保持方法を実行することは極めて困難である。こうした紙や布を把持するときには、図5Bに示すように、吸着ハンド103sによって吸着により保持することが効率的である。   On the other hand, when the article is a sheet-like article 202b, for example, a piece of paper or cloth placed on the floor, it is extremely difficult to execute the above holding method. When gripping such paper or cloth, as shown in FIG. 5B, it is efficient to hold it by suction with the suction hand 103s.

また、同じ紙であっても、その紙が100枚束ねられた形態であるときには、その重量を考慮すれば吸着による保持は困難である。この場合は、図5Cに示すように、紙の束202cを、その厚み方向から指型ハンド103aによって挟む、ことが効率的である。   Further, even when the same paper is in the form of a bundle of 100 sheets, it is difficult to hold by suction in consideration of the weight. In this case, as shown in FIG. 5C, it is efficient to sandwich the paper bundle 202c with the finger type hand 103a from the thickness direction.

さらに、同じ紙であっても、その紙がクシャクシャに丸められている形態であるときには、図5Aに示すように、指型ハンド103aによって上から挟む、ことが効率的である。   Furthermore, even when the same paper is in a form that is crumpled, it is efficient to sandwich the paper from above with a finger-type hand 103a as shown in FIG. 5A.

このように、物品は同じ紙であっても、その形態によって最適な保持方法は変わる。そこで、上記物品保持システム10は保持対象物を保持するときに、その保持対象物の形態を認識し、その認識結果に応じて最適な保持方法を特定(選択)する。   Thus, even if the article is the same paper, the optimum holding method varies depending on the form. Therefore, when holding the holding object, the article holding system 10 recognizes the form of the holding object and specifies (selects) an optimal holding method according to the recognition result.

保持対象物の形態の認識は、その保持対象物に取り付けられた電子タグの情報を受信するタグリーダ(タグリーダ例えば404a)と、レンジファインダとを用いて行うことが可能である。つまりこの場合、物品保持システム10の認識装置101としては、タグリーダ(例えばタグリーダ404a)とレンジファインダ(図示省略)とをさらに有する。また、ここでは、上記電子タグに、その物品が何であるか(物品を特定する情報)と、図6に示すように、その物品(ここでは紙)が取り得る状況(形態)と最適な保持方法とが対応付けられたテーブルと、が記憶されているとする。   Recognition of the form of the holding object can be performed by using a tag reader (tag reader, for example, 404a) that receives information of an electronic tag attached to the holding object and a range finder. That is, in this case, the recognition device 101 of the article holding system 10 further includes a tag reader (for example, tag reader 404a) and a range finder (not shown). In addition, here, what is the article (information for identifying the article), and the situation (form) that the article (paper here) can take as shown in FIG. It is assumed that a table associated with a method is stored.

上記物品保持システム10の認識装置101は、保持対象物の形態を認識するに際し、先ずタグリーダ(例えばタグリーダ404a)によって、保持対象物の情報を読み取る。電子タグをアンチコリジョン対応とすることによって、仮に保持対象物が束ねられた複数毎の紙であっても、各紙に付与された電子タグの情報を同時に認識することができる。こうして、電子タグの情報によって、その保持対象物が何であるかを特定すると共に、テーブルを取得する。   When recognizing the form of the holding object, the recognition device 101 of the article holding system 10 first reads the information of the holding object by a tag reader (for example, tag reader 404a). By making the electronic tag compatible with anti-collision, the information of the electronic tag attached to each paper can be recognized at the same time even if the holding objects are bundled. In this way, the information on the electronic tag identifies what the holding object is and obtains a table.

次に、上記物品保持システム10の認識装置101は、上記保持対象物の形状をレンジファインダによって検出する。その検出結果から認識処理部101pにより保持対象物の形態が認識される。   Next, the recognition device 101 of the article holding system 10 detects the shape of the holding object with a range finder. From the detection result, the form of the holding object is recognized by the recognition processing unit 101p.

保持方法特定手段102は、その認識結果に基づいて、上記テーブルを参照することにより、認識された保持対象物の形態に対応する保持方法を特定する。   The holding method specifying unit 102 specifies the holding method corresponding to the recognized form of the holding object by referring to the table based on the recognition result.

保持装置103は、保持方法特定手段102によって特定された保持方法に従って、保持対象物を保持する。つまり、保持対象物が平らに置かれた1枚の紙202bであるときには、上記保持装置103は、吸着ハンド103sによってその紙202bを保持し、保持対象物が丸められた紙202aであるときには、指型ハンド103aによってその丸められた紙202aを上方から挟み、保持対象物が束ねられた複数枚の紙の束202cであるときには、指型ハンド103aによってその紙の束202cを横方向から挟む。   The holding device 103 holds the holding object according to the holding method specified by the holding method specifying means 102. That is, when the holding object is a sheet of paper 202b placed flat, the holding device 103 holds the paper 202b by the suction hand 103s, and when the holding object is a rolled paper 202a, When the rolled paper 202a is pinched from above by the finger-type hand 103a and the holding object is a bundle of plural sheets 202c, the paper bundle 202c is pinched from the side by the finger-type hand 103a.

こうして、保持対象物をその形態に対応した最適な保持方法でもって、保持することができる。   In this way, the object to be held can be held by an optimum holding method corresponding to the form.

もちろん、このような紙の保持方法はこれに限るものではなく、例えば、複数の保持装置103を組み合わせたものでも構わない。これを、保持対象物が床に置かれた一枚の紙である場合に吸着ハンド103sと指型ハンド103aを組み合わせて保持する例を、図2A及び図5Dを用いて説明する。   Of course, such a paper holding method is not limited to this, and for example, a combination of a plurality of holding devices 103 may be used. An example of holding this in combination with the suction hand 103s and the finger type hand 103a when the object to be held is a piece of paper placed on the floor will be described with reference to FIGS. 2A and 5D.

図2Aはこの様子を示したものである。ロボット402は、指型ハンド103によって挟もうとしても、紙202bが床に置かれている場合、この操作は非常に困難である。そこで、まず、ロボット402は、図5Dのように、吸着ハンド103sによって吸着により紙202bを保持する。その後、吸着ハンド103sと指型ハンド103aを近づけるようにロボット402を制御し、吸着された紙202bの端を指型ハンド103aで上下から挟む(図5E)。その後、吸着ハンド103sの吸着を停止する(例えば、制御手段415の制御により吸引装置を停止させる)ことで、指型ハンド103aによる紙202bの把持を実現する(図5F)。   FIG. 2A shows this state. Even if the robot 402 tries to pinch it with the finger type hand 103, this operation is very difficult when the paper 202b is placed on the floor. Therefore, first, the robot 402 holds the paper 202b by suction with the suction hand 103s as shown in FIG. 5D. Thereafter, the robot 402 is controlled so that the suction hand 103s and the finger-type hand 103a are brought closer to each other, and the end of the sucked paper 202b is sandwiched by the finger-type hand 103a from above and below (FIG. 5E). Thereafter, the suction of the suction hand 103s is stopped (for example, the suction device is stopped by the control of the control unit 415), whereby the gripping of the paper 202b by the finger type hand 103a is realized (FIG. 5F).

図5Gは、保持方法データベース102dに予め記憶させる、図2Aに示したロボット402における保持方法の一覧を示したものである。このロボット402は、上記したように、2本の指型ハンド103aと1本の吸着ハンド103sを持っている。   FIG. 5G shows a list of holding methods in the robot 402 shown in FIG. 2A, which are stored in advance in the holding method database 102d. As described above, the robot 402 has two finger-type hands 103a and one suction hand 103s.

まず、指型ハンド103aを利用する場合、単腕の指型ハンド103aで挟んで保持する方法(例えば、図5A及び図5C)、双腕の2つの指型ハンド103aを利用して挟んで保持する方法(例えば、図9、図5H)などがある。この双腕の2つの指型ハンド103aを利用する保持方法は、単腕の指型ハンド103aでは安定が取りにくい大きな対象物や、重量の大きな対象物を保持する場合に有効である。   First, when using the finger-type hand 103a, a method of holding it with a single-armed finger-type hand 103a (for example, FIG. 5A and FIG. 5C), and holding with a two-armed finger-type hand 103a There are methods (for example, FIG. 9 and FIG. 5H). This holding method using the two-armed two-fingered hand 103a is effective when holding a large object that is difficult to stabilize with a single-armed finger-type hand 103a or a heavy object.

別の保持方法として、吸着ハンド103sを利用する保持方法(例えば、図5B)がある。これは、指型ハンド103aでは保持が難しい、床面に置かれた紙や、凸凹の少ない面をもつ対象物に対して有効である。   As another holding method, there is a holding method using the suction hand 103s (for example, FIG. 5B). This is effective for paper placed on the floor surface, which is difficult to hold with the finger type hand 103a, and for an object having a surface with less unevenness.

また、指型ハンド103aと吸着ハンド103sを組み合わせた保持方法も考えられる。これには、前述の吸着ハンド103sでまず吸着し、吸着した対象物を単腕の指型ハンド103a、又は双腕の2つの指型ハンド103aで挟むよう方法(例えば、図5E)、双腕の2つの指型ハンド103aの上に載せられた対象物を、吸着ハンド103sで押さえながら保持する方法などがある。図5Iはこの様子を示した図である。これは、台車のように、人や別のロボットなどから渡された大量の本や書類などを別の場所へ運搬する際の保持方法として有効である。   A holding method combining the finger type hand 103a and the suction hand 103s is also conceivable. For this, a method of first sucking with the aforementioned suction hand 103s and sandwiching the sucked object between the single-armed finger-type hand 103a or the two-fingered two-handed hands 103a (for example, FIG. 5E), double-arm There is a method of holding the object placed on the two finger-type hands 103a while holding the object with the suction hand 103s. FIG. 5I shows this state. This is effective as a holding method when a large number of books or documents delivered from a person or another robot are transported to another place like a cart.

保持対象物の形態に対応して保持方法を特定する別の例として、衣類が挙げられる。次に、保持対象物が衣類である場合について、図7を参照しながら説明する。   Another example of specifying the holding method corresponding to the form of the holding object is clothing. Next, a case where the holding object is clothing will be described with reference to FIG.

つまり、衣類は、例えばこれから洗濯を行うために置かれているときには「指型ハンドで把持する」という保持方法が効率的である。これに対し、その衣類が洗濯を終えてハンガーに吊るされているときや、アイロンがかけられて畳まれているときには、衣類に皺が付いてしまうような保持方法を避ける必要がある。   In other words, the holding method of “holding with a finger-type hand” when the clothes are placed for washing, for example, is efficient. On the other hand, it is necessary to avoid a holding method in which a garment is wrinkled when the garment is washed and hung on a hanger or when it is folded by ironing.

衣類の例においても、保持対象物の形態の認識は、その保持対象物に取り付けられた電子タグの情報を受信するタグリーダ(例えばタグリーダ404a)と、レンジファインダとを用いて行うことが可能である。この場合、上記電子タグには、例えば図7に示すような情報を有するテーブルを保持方法データベース102dに記憶させておけばよい。このテーブルによって、衣類210がハンガー211にかけられた形態では、そのハンガー211の部分を指型ハンド103aで保持する(例えばハンガー211のフック部分を指型ハンド103aで把持又は引っ掛けるように保持する)ことが設定される。一方、衣類210aが畳まれているときには、例えばアーム103b又は2つの指型ハンド103aを利用してその畳んだ状態のまま持ち上げるような保持動作をすることが設定される。また、衣類210がそれ以外の形態(例えば丸まった状態等)210bにあるときには、指型ハンド103aで摘むように保持をすることが設定される。   Even in the case of clothing, recognition of the shape of the holding object can be performed using a tag reader (for example, tag reader 404a) that receives information on an electronic tag attached to the holding object and a range finder. . In this case, for example, a table having information as shown in FIG. 7 may be stored in the holding method database 102d in the electronic tag. In the form in which the clothes 210 are hung on the hanger 211 by this table, the portion of the hanger 211 is held by the finger-type hand 103a (for example, the hook portion of the hanger 211 is held so as to be gripped or hooked by the finger-type hand 103a). Is set. On the other hand, when the garment 210a is folded, for example, the holding operation is performed such that the arm 103b or the two finger type hands 103a are used to lift the garment 210a in the folded state. In addition, when the clothing 210 is in another form (for example, a rounded state or the like) 210b, it is set to be held so as to be picked by the finger type hand 103a.

尚、認識装置101が保持対象物の形態を認識する処理、保持方法特定手段102が保持方法を特定する処理は、上述したとおりであるため、ここでは説明を省略する。   Note that the process of recognizing the form of the object to be held by the recognition apparatus 101 and the process of specifying the holding method by the holding method specifying unit 102 are as described above, and thus the description thereof is omitted here.

このように、上記で例示した紙や衣類は、時間に対してその形態が変化する物品であるが、こうした物品を保持装置103によって保持するときに、認識装置101は、物品の形態を認識し、保持方法特定手段102は、その形態に応じた保持方法を特定する。このことにより、形態が変化する物品を、その形態に合わせて最適に保持することができる。   As described above, the paper and clothing exemplified above are articles whose form changes with time. When the article is held by the holding device 103, the recognition apparatus 101 recognizes the form of the article. The holding method specifying unit 102 specifies a holding method according to the form. This makes it possible to optimally hold an article whose form changes according to the form.

(3.物品の状況に応じた保持位置の特定・変更)
次に、物品の状況に応じた保持位置(位置座標)の特定及び変更について説明する。これは、ロボット402(一例として家事支援ロボット)が、料理(食品)204が盛り付けられた皿203を保持するときに有効である。つまり、料理204が盛り付けられた皿203を保持する際に、その皿203において料理204が存在しない部分を保持するようにする。そのために、上記保持装置103は保持対象物である皿203を保持するときに、その保持対象物である皿203の状況を認識し、その認識結果に応じて最適な保持方法を特定する。ここでは、皿203を保持するときに、その皿203のどの位置(位置座標)に料理204が存在しているかを認識し、その認識結果に応じて保持位置(位置座標)を特定する。
(3. Specifying and changing the holding position according to the condition of the article)
Next, the specification and change of the holding position (position coordinates) according to the condition of the article will be described. This is effective when the robot 402 (for example, a housework support robot) holds the plate 203 on which dishes (food) 204 are arranged. That is, when the dish 203 on which the dish 204 is arranged is held, a portion of the dish 203 where the dish 204 does not exist is held. For this purpose, when the holding device 103 holds the plate 203 that is the holding object, the holding device 103 recognizes the situation of the plate 203 that is the holding object, and specifies an optimum holding method according to the recognition result. Here, when the dish 203 is held, the position (position coordinates) of the dish 203 is recognized at which position the dish 204 exists, and the holding position (position coordinates) is specified according to the recognition result.

この場合は、物品の状況をタグリーダ(例えばタグリーダ404a)とカメラ(例えばカメラ105)とを利用して認識する。つまり、認識装置101の一例としてのタグリーダ(例えばタグリーダ404a)とカメラ(例えばカメラ105)とを利用する。   In this case, the status of the article is recognized using a tag reader (for example, tag reader 404a) and a camera (for example, camera 105). That is, a tag reader (for example, tag reader 404a) and a camera (for example, camera 105) as examples of the recognition apparatus 101 are used.

上記タグリーダ(例えばタグリーダ404a)とカメラ(例えばカメラ105)とを利用した、皿203の状況の認識について図8Aを用いて説明する。図8Gは処理の流れを示した図である。   The recognition of the state of the dish 203 using the tag reader (for example, the tag reader 404a) and the camera (for example, the camera 105) will be described with reference to FIG. 8A. FIG. 8G is a diagram showing the flow of processing.

まず、上記物品保持システム10は、時刻t=t0にカメラによって料理204が盛り付けられた皿203を撮像する(ステップS2001)。図8A及び図8Dは、こうして撮影された、皿203とその皿203の上に置かれた食品204の図である。皿203には電子タグが取り付けられているとし、この電子タグには形状データ及びテクスチャ情報(図8Bに示す皿203が円形であることや皿203の模様203aなどの情報)が記憶されているとする。 First, the article holding system 10 captures an image of the plate 203 on which the dish 204 is served by the camera at time t = t 0 (step S2001). 8A and 8D are views of the dish 203 and the food 204 placed on the dish 203, taken in this manner. It is assumed that an electronic tag is attached to the plate 203, and shape data and texture information (information such as the shape of the plate 203 shown in FIG. 8B and the pattern 203a of the plate 203) is stored in the electronic tag. And

上記物品保持システム10は、保持対象物の状況を認識するに際し、先ずタグリーダ404aによって、保持対象物の情報を読み取る(ステップS2002)。それによって、図8Bに示すように、料理が載っていない状態の皿203のデータが得られる。小さな円は、皿203の模様203aである。   When recognizing the status of the holding object, the article holding system 10 first reads the information on the holding object by the tag reader 404a (step S2002). Thereby, as shown in FIG. 8B, data of the dish 203 in a state where no dish is placed is obtained. The small circle is the pattern 203a of the plate 203.

そうして、上記認識装置101の認識処理部101pは、図8Aに示すデータと図8Bに示すデータとの差分処理を実行する(ステップS2003)。この差分処理によって、図8Cに示すように、皿203の上に置かれた食品204の領域81のみが抽出される。図8Cにおいて、82は、食品領域81以外の領域であって、指型ハンド103aで把持可能な領域である。   Then, the recognition processing unit 101p of the recognition apparatus 101 executes a difference process between the data shown in FIG. 8A and the data shown in FIG. 8B (step S2003). By this difference processing, as shown in FIG. 8C, only the region 81 of the food 204 placed on the plate 203 is extracted. In FIG. 8C, 82 is an area other than the food area 81 and is an area that can be gripped by the finger type hand 103a.

次に、一定時刻経過した時刻t=t1において再度、撮影を行い(図8E参照)、差分画像を作成する(図8F参照)。こうして求まった時刻t=t0と時刻t=t1の各差分画像の差分を認識処理部101pで計算することによって、保持対象物の状態変化(ここでは、料理にかけられたソースが移動して起こる状態変化)を推定する(ステップS2004)。図8Fはこうして求まった差分領域を示している。 Next, imaging is performed again at time t = t 1 when a certain time has elapsed (see FIG. 8E), and a difference image is created (see FIG. 8F). By calculating the difference between the difference images at time t = t 0 and time t = t 1 obtained in this way by the recognition processing unit 101p, the state change of the object to be held (here, the sauce applied to the dish is moved) The state change that occurs is estimated (step S2004). FIG. 8F shows the difference area thus obtained.

以上の結果を利用して、保持装置103による皿203の保持位置(位置座標)を推定する(ステップS2005)。   Using the above results, the holding position (position coordinates) of the plate 203 by the holding device 103 is estimated (step S2005).

より具体的には、以下のように処理される。   More specifically, it is processed as follows.

まず、皿203の電子タグや保持方法データベース102dや物品及び移動体データベース406などには、図8Hのような、保持位置候補(位置座標の候補)が、保持位置情報として、予め記憶されている。この図8Hにおいて、H1〜12の各領域が保持装置103の指型ハンド103aにより把持可能な皿203の周囲部分である保持位置候補領域2101を示している。保持位置候補領域H1〜12は、一例として、皿203の周囲部分が均等に分割された領域となっている。また、この保持位置情報は、形状情報として皿203の電子タグや保持方法データベース102dや物品及び移動体データベース406などに保持することが望ましい。   First, holding position candidates (position coordinate candidates) as shown in FIG. 8H are stored in advance as holding position information in the electronic tag of the plate 203, the holding method database 102d, the article and moving body database 406, and the like. . In FIG. 8H, each of the areas H1 to H12 shows a holding position candidate area 2101 that is a peripheral portion of the plate 203 that can be gripped by the finger type hand 103a of the holding apparatus 103. As an example, the holding position candidate regions H1 to 12 are regions in which the peripheral portion of the plate 203 is equally divided. The holding position information is preferably held as shape information in the electronic tag of the plate 203, the holding method database 102d, the article and moving body database 406, or the like.

次に、ステップS2003で求めた差分画像を保持位置情報に重ね合わせる。   Next, the difference image obtained in step S2003 is superimposed on the holding position information.

このとき、保持位置候補領域2101の中で、食品領域81と重なる領域は、保持位置候補から除外する。図8I及び図8Jはこの様子を示した図である。この図8Iにおいては、領域H2と食品領域81が重なっているため、H2領域を保持位置候補から除外し、保持不可領域とする。   At this time, an area that overlaps the food area 81 in the holding position candidate area 2101 is excluded from the holding position candidates. 8I and 8J are diagrams showing this state. In FIG. 8I, since the region H2 and the food region 81 overlap each other, the H2 region is excluded from the holding position candidates and is set as a holding impossible region.

このとき、重ね合わせる食品領域81は、最新のものを用いることが望ましい。   At this time, it is desirable to use the latest food region 81 to be superimposed.

次に、ステップS2004で求まった差分領域の情報を保持位置情報に重ね合わせる。また、食品領域81の重心位置(重心位置の位置座標)Pfも同じように保持位置情報に重ね合わせる。ここで、差分領域の各点と食品領域の重心位置Pfを結び、さらに、皿203の縁まで延ばした領域(図8Jの斜線領域2102)は、今後、食品領域81になる可能性が高い領域であると考えられる。そこで、これらの領域2102も保持不可領域とする。   Next, the difference area information obtained in step S2004 is superimposed on the holding position information. Similarly, the barycentric position (positional coordinates of the barycentric position) Pf of the food area 81 is also superimposed on the holding position information. Here, the region (the hatched region 2102 in FIG. 8J) that connects each point of the difference region and the gravity center position Pf of the food region and further extends to the edge of the dish 203 is a region that is likely to become the food region 81 in the future. It is thought that. Therefore, these areas 2102 are also set as non-holdable areas.

以上の処理より、残った保持位置候補の中から保持可能領域を決定する。図8Jでは、領域H4〜H12であるが、好ましくは、保持不可領域2102とは反対側の領域H6〜H9を保持可能領域とすれば、移動中に食品が移動しても、指型ハンド103aと接触する可能性をより低くすることができる。   From the above processing, a holdable area is determined from the remaining holding position candidates. In FIG. 8J, it is the regions H4 to H12. Preferably, if the regions H6 to H9 opposite to the non-holdable region 2102 are set as the holdable regions, even if the food moves during the movement, the finger-type hand 103a The possibility of contact with can be further reduced.

もちろん、保持可能領域は上記の方法で決定する必要はなく、例えば、皿の全領域の内、食品領域81以外の領域を保持可能領域82(図8Kの斜線を付した領域)に特定するようにしても構わない(図8L参照)。すなわち、図8Lは、皿の全領域の内、差分有りの領域を保持可能領域とし、差分無しの領域を保持不可領域とする場合の図である。また、食品領域81から最も離れた保持位置候補領域2101(図8Iにおいては領域H7)を保持位置(位置座標)として選択するようにしても構わない。   Of course, the holdable area does not need to be determined by the above method. For example, the area other than the food area 81 in the entire area of the dish is specified as the holdable area 82 (the hatched area in FIG. 8K). It does not matter (see FIG. 8L). That is, FIG. 8L is a diagram in the case where the difference area is the holdable area and the no difference area is the non-holdable area in the entire area of the dish. Further, the holding position candidate area 2101 (the area H7 in FIG. 8I) that is farthest from the food area 81 may be selected as the holding position (position coordinate).

保持装置103は、特定された保持可能領域82に従って、アーム103b及びハンド103a,103bによって、この保持可能領域82を保持する(図9参照)。こうして、料理が盛り付けられた皿203をその料理に触れることなく保持することができる。   The holding device 103 holds the holdable area 82 by the arm 103b and the hands 103a and 103b according to the specified holdable area 82 (see FIG. 9). In this way, the dish 203 on which the dish is arranged can be held without touching the dish.

差分処理によって食品領域を特定することにより、例えば皿203に模様203aが描かれているときであっても、食品領域81を正確に認識することが可能になる。尚、照明状態によって皿203の輝度情報が変化してしまうため、光源の変化に対応した背景差分の方法を利用することが望ましい。このような方法としては、例えば画像をエッジ抽出した後に差分を求める方法等がある。   By specifying the food area by the difference process, the food area 81 can be accurately recognized even when the pattern 203a is drawn on the plate 203, for example. In addition, since the luminance information of the plate 203 changes depending on the illumination state, it is desirable to use a background difference method corresponding to the change of the light source. As such a method, for example, there is a method of obtaining a difference after extracting an edge of an image.

このように、例えば皿等の物品はその上に物体が置かれる場合があり、時間に対して状況が変化する。そうした物品を保持装置103によって保持するときに、認識装置101は、上記物品(保持対象物)の上に物体が置かれているか否か、また物体がどこに置かれているかを認識し、保持方法特定手段102は、物体が置かれている位置(位置座標)に応じて保持方法(ここでは保持位置(位置座標))を特定する。このことにより、その上に物体が置かれている物品を、その状況に合わせて最適に保持することができる。   Thus, for example, an object such as a dish may have an object placed on it, and the situation changes with time. When such an article is held by the holding apparatus 103, the recognition apparatus 101 recognizes whether or not an object is placed on the article (holding object) and where the object is placed, and a holding method. The specifying unit 102 specifies the holding method (here, the holding position (position coordinates)) according to the position (position coordinates) where the object is placed. Thus, the article on which the object is placed can be optimally held according to the situation.

また、以上のようにして最適な保持位置(位置座標)を特定して保持対象物を保持している最中に、その保持対象物の状況が変化することに対応して、その保持位置(位置座標)を変更するようにしてもよい。   In addition, while holding the holding object by specifying the optimum holding position (position coordinates) as described above, the holding position ( (Position coordinates) may be changed.

つまり、図9に示すように、食品領域81以外の領域を保持してロボット402が皿203を運搬している最中に、その料理に含まれるソースやケチャップ等が動いて、図10に示すように、食品領域81が変化したとする。その場合、ハンド103aが食品に触れてしまうことも起こり得る。   That is, as shown in FIG. 9, while the region other than the food region 81 is held and the robot 402 is carrying the plate 203, the sauce, ketchup, etc. included in the dish move, and as shown in FIG. 10. In this way, it is assumed that the food area 81 has changed. In that case, the hand 103a may touch food.

そこで、上記認識装置101は、保持対象物を保持している最中もカメラ105によって料理が盛り付けられた皿203を撮像し、上記の差分処理を逐次実行する。そうして食品領域81を逐次認識する。   Therefore, the recognition apparatus 101 captures the dish 203 on which the dish is arranged by the camera 105 while holding the holding object, and sequentially executes the above difference processing. Thus, the food area 81 is sequentially recognized.

そして、上記保持方法特定手段102は、その認識結果に基づいて食品領域81が変化したときには保持可能領域82の再特定を行い、例えば図11に示すように、必要に応じてハンド103aによる保持位置(位置座標)を変更する。   Then, the holding method specifying means 102 re-specifies the holdable area 82 when the food area 81 changes based on the recognition result. For example, as shown in FIG. 11, the holding position by the hand 103a as shown in FIG. Change (Position coordinates).

このように、最適な保持方法を一旦特定した後も、保持対象物の状況の認識を継続することによって、状況の変化に対応して保持方法を常に最適化することができる。   As described above, even after the optimum holding method is once specified, the holding method can be always optimized in accordance with the change of the situation by continuing the recognition of the situation of the holding object.

(4.物品の温度状況に応じた保持方法の特定)
次に、物品の温度状況を認識することによって、保持方法、特に保持位置(位置座標)の特定について説明する。これは、物品に電子タグ等が取り付けられておらず、その物品の保持方法(保持位置)が予め得られていないときに有効である。つまり、電子タグ等によって保持方法が得られるときにはその物品の保持位置(位置座標)も特定可能であるからである。
(4. Specifying the holding method according to the temperature condition of the article)
Next, description will be given of the holding method, particularly the specification of the holding position (position coordinates) by recognizing the temperature state of the article. This is effective when an electronic tag or the like is not attached to the article and a holding method (holding position) of the article is not obtained in advance. That is, when the holding method is obtained by an electronic tag or the like, the holding position (position coordinates) of the article can be specified.

ここでは、ロボット402(家事支援ロボット)が、コンロ511にかけられている鍋やフライパン121を、そのコンロ511から降ろす作業を行う場合を例に、物品の温度状況に応じた保持方法の特定について説明する。   Here, the case where the robot 402 (household support robot) performs the operation of lowering the pan or the frying pan 121 hung on the stove 511 from the stove 511 will be described as an example of specifying the holding method according to the temperature state of the article. To do.

ここでは、図23に示すように、認識装置101、保持方法特定手段102、保持装置103、及び、保持方法データベース102d又は物品及び移動体データベース406として機能する保持情報データベース510をそれぞれ独立して設け、これらをネットワークを介して互いに接続した構成を考える。この図23に示すシステムでは、上記ロボット402は、保持装置103そのものとなる。また、保持方法特定手段102は、認識装置101からの認識結果を受けて運搬方法を特定すると共に、その特定した方法に基づいて上記保持装置103(ロボット402)に運搬指示を出力する運搬指示装置となる。   Here, as shown in FIG. 23, a recognition apparatus 101, a holding method specifying unit 102, a holding apparatus 103, and a holding method database 102d or a holding information database 510 functioning as an article and moving body database 406 are provided independently. Consider a configuration in which these are connected to each other via a network. In the system shown in FIG. 23, the robot 402 is the holding device 103 itself. The holding method specifying unit 102 receives a recognition result from the recognition device 101, specifies a carrying method, and outputs a carrying instruction to the holding device 103 (robot 402) based on the specified method. It becomes.

先ず、認識装置101は、レンジファインダやステレオ視等の3次元計測手法を利用して、コンロ511にかけられているフライパン121の形状を認識する。つまり、物品保持システム10は、レンジファインダ又はステレオカメラ(例えば105)をさらに有する。認識装置101は、具体的には、例えばフライパン121が置かれていないコンロ511の3次元形状情報を予め取得しておき、コンロ511を実際に計測した3次元情報と比較することによってフライパン121の形状を特定することができる(図12A参照)。   First, the recognition apparatus 101 recognizes the shape of the frying pan 121 applied to the stove 511 using a three-dimensional measurement method such as range finder or stereo vision. That is, the article holding system 10 further includes a range finder or a stereo camera (for example, 105). Specifically, the recognition apparatus 101 acquires, for example, the three-dimensional shape information of the stove 511 on which the frying pan 121 is not placed in advance, and compares the stove 511 with the actually measured three-dimensional information. The shape can be specified (see FIG. 12A).

次に、認識装置101は、例えば赤外線センサ等の、温度センサ520によって保持対象物の温度分布を測定する。つまり、上記物品保持システム10は、温度センサ520をさらに有する。このような温度センサ520は、サーモパイル素子を使ったものや、サーモグラフィ装置などとして広く知られているため、詳細な説明は省略する。本来、このような温度センサ520は、対象物の輻射率が既知でない場合、正確な温度を推定することは出来ない。そのため、保持対象物(各物品)に付した電子タグ等のタグ521に、その対象物の輻射率のデータを蓄積するようにしても構わない。   Next, the recognition apparatus 101 measures the temperature distribution of the holding object using a temperature sensor 520 such as an infrared sensor. That is, the article holding system 10 further includes a temperature sensor 520. Such a temperature sensor 520 is widely known as one using a thermopile element, a thermography device, or the like, and thus detailed description thereof is omitted. Essentially, such a temperature sensor 520 cannot estimate an accurate temperature when the emissivity of the object is not known. Therefore, the radiation rate data of the target object may be stored in a tag 521 such as an electronic tag attached to the holding target object (each article).

図2Aは、上記物品保持システム10に、温度センサ520を設置した模式図である。この図2Aに示したように、温度センサ520を物品保持システム10に組み込むのではなく、ハンド103aで温度センサ520を操作するようにしても構わない。   FIG. 2A is a schematic diagram in which a temperature sensor 520 is installed in the article holding system 10. As shown in FIG. 2A, the temperature sensor 520 may be operated by the hand 103a instead of incorporating the temperature sensor 520 into the article holding system 10.

人が使用する調理器具には、人が保持する部分(フライパン121のときには、取っ手部分121a)が設けられており、その部分は温度が高くならないように設計されている。そのため、保持対象物の温度分布を測定することによって、図12Bに示すように、フライパン121において火にかけられている部分は高温であり、取手121aは比較的低温であることが検出される。   A cooking utensil used by a person is provided with a part held by the person (in the case of the frying pan 121, a handle part 121a), and the part is designed so that the temperature does not increase. Therefore, by measuring the temperature distribution of the object to be held, as shown in FIG. 12B, it is detected that the portion of the frying pan 121 that is lit is hot and the handle 121 a is relatively cold.

保持方法特定手段102は、この温度分布に基づいて保持可能領域122(この場合、温度Tが閾値の温度ThTH(例えば30℃)より低い部分である取手121a)を保持位置(位置座標)に特定する(図12D参照)。温度Tが閾値の温度ThTHより高い部分は保持不可領域となる。 Based on this temperature distribution, the holding method specifying means 102 uses the holdable region 122 (in this case, the handle 121a where the temperature T is lower than the threshold temperature Th TH (for example, 30 ° C.)) as the holding position (position coordinate). Specify (see FIG. 12D). A portion where the temperature T is higher than the threshold temperature Th TH is a non-holdable region.

保持装置103は、特定された保持可能領域122に従って、図12Cに示すように、ハンド103a及びアーム103bによって、フライパン121の取手121aを保持する。   As shown in FIG. 12C, the holding device 103 holds the handle 121a of the frying pan 121 by the hand 103a and the arm 103b according to the specified holdable area 122.

このようにして、ロボット402は、人が保持する位置(位置座標)と同じ位置(位置座標)を保持することになる。これは、例えばハンド103aの構成が熱に弱い場合等において必要な処理である。また、仮にハンド103aの構成が熱を考慮する必要がない場合においても、例えばロボット402の保持する位置(位置座標)が、人が通常保持しない位置(位置座標)であると、人によっては不快感を覚えることも予想されるが、ロボット402が人と同じ位置(位置座標)を保持することによってそうした不快感が軽減されるという利点がある。   In this way, the robot 402 holds the same position (position coordinates) as the position (position coordinates) held by a person. This is a necessary process when, for example, the configuration of the hand 103a is weak against heat. Even if the configuration of the hand 103a does not need to consider heat, for example, if the position (position coordinates) held by the robot 402 is a position (position coordinates) that is not normally held by a person, it may not be possible for some people. Although it is anticipated that a pleasant feeling will be memorized, there exists an advantage that such discomfort is reduced when the robot 402 holds the same position (position coordinate) as a person.

こうした温度分布に基づく保持位置(把持位置)(位置座標)の特定は、保持対象物が調理器具に限るのではなく、料理が盛り付けられた皿においても可能である。つまり、料理が盛り付けられた皿の温度分布を測定し、保持方法特定手段102は、温度が低い部分、換言すれば料理が載っていない皿の部分を保持位置(位置座標)に特定すればよい。   The holding position (gripping position) (positional coordinates) based on the temperature distribution can be specified not only on the cooking utensil but also on a plate where dishes are served. In other words, the temperature distribution of the dish on which the dish is arranged is measured, and the holding method specifying means 102 may specify the part having a low temperature, in other words, the part of the dish on which the dish is not placed, as the holding position (position coordinate). .

なお、保持対象物の温度状況を取得するために、認識装置101は、物品の履歴情報や位置情報を利用しても構わない。これを図12Fを用いて詳述する。   In addition, in order to acquire the temperature state of the holding object, the recognition apparatus 101 may use history information or position information of the article. This will be described in detail with reference to FIG.

保持対象物が前述のフライパン121の場合、保持対象物の温度が上昇するのはガスコンロにかけられるためである。そこで、保持対象物が、最近、ガスレンジ上に存在したかどうか確かめることで、保持対象物の温度状況を推定することができる。具体的には、図12Fのテーブルを参照することで、保持領域122を保持位置に特定することで、保持方法を決定する。このような物品の履歴情報を取得する方法はRFIDやカメラ等を用いればよく、例えば、特開2004−249389号公報等によって公知であるため、ここではその方法の説明は省略する。   When the holding object is the above-described frying pan 121, the temperature of the holding object rises because it is put on a gas stove. Therefore, it is possible to estimate the temperature state of the holding object by confirming whether or not the holding object has recently been present on the gas range. Specifically, by referring to the table in FIG. 12F, the holding method is determined by specifying the holding area 122 as the holding position. Such a method for acquiring the history information of the article may use an RFID, a camera, or the like, and is known from, for example, Japanese Patent Application Laid-Open No. 2004-249389, and thus the description of the method is omitted here.

また、保持対象物の温度状況に応じて、保持装置103の温度を変更するようにしても構わない。これは、特に温度の低いものを保持する際に有効である。例えば、氷を保持する場合、保持装置103の温度が十分高い場合、氷が溶けてしまい、保持を行うことが出来ない。   Moreover, you may make it change the temperature of the holding | maintenance apparatus 103 according to the temperature condition of a holding target object. This is particularly effective when holding a low temperature. For example, when holding ice, if the temperature of the holding device 103 is sufficiently high, the ice melts and cannot be held.

そこで、保持対象物の温度が十分に低い場合、保持装置103の温度を保持対象物の温度に十分近い温度まで冷やす処理を行う。このような冷却処理は、公知のペルチェ素子などを利用すればよい。   Therefore, when the temperature of the holding object is sufficiently low, a process of cooling the temperature of the holding device 103 to a temperature sufficiently close to the temperature of the holding object is performed. Such a cooling process may use a known Peltier element or the like.

このように、調理器具又は食器といった温度分布が生じる物品、つまり時間に対して状況が変化する物品を保持装置103によって保持するときに、認識装置101は、上記物品の温度分布を認識し、保持方法特定手段102は、認識された温度物品に応じて保持位置(位置座標)を特定することによって、保持の最適化が図られる。   As described above, when the holding device 103 holds an article such as a cooking utensil or tableware in which temperature distribution occurs, that is, an article whose state changes with time, the recognition apparatus 101 recognizes and holds the temperature distribution of the article. The method specifying unit 102 optimizes holding by specifying the holding position (position coordinates) according to the recognized temperature article.

尚、物品の温度状況に応じた保持方法の特定は、上述したように保持位置(位置座標)の特定に限るものではない。例えばお湯の入った鍋を保持するときに、そのお湯の温度に応じた最適な保持方法を選択するようにしてもよい。つまり、例えばお湯が沸騰している(図12Eに示すように、温度tが所定の上限温度ThTHより低くかつ所定下限温度ThTL以上である)ときには、保持方法特定手段102は、その鍋を水平状態に保ちつつ遅い移動速度で移動させるような保持方法を選択する一方、温度tが所定下限温度ThTLよりも低いときには、保持方法特定手段102は、移動速度をお湯をこぼさない程度の移動速度に設定する。温度tが所定の上限温度ThTHより高い場合には保持不可となる。また、湯温は時間経過に伴い変化するため、お湯の入った鍋を保持している最中に、認識装置101によって湯温を逐次測定し、保持方法特定手段102は、その温度の変化に応じて保持方法を最適化させてもよい。 Note that the specification of the holding method according to the temperature state of the article is not limited to the specification of the holding position (position coordinates) as described above. For example, when holding a pan containing hot water, an optimal holding method according to the temperature of the hot water may be selected. That is, for example, when hot water is boiling (as shown in FIG. 12E, the temperature t is lower than the predetermined upper limit temperature Th TH and is equal to or higher than the predetermined lower limit temperature Th TL ), the holding method specifying means 102 While the holding method is selected such that the moving method is moved at a slow moving speed while maintaining a horizontal state, when the temperature t is lower than the predetermined lower limit temperature Th TL , the holding method specifying means 102 moves so as not to spill hot water. Set to speed. When the temperature t is higher than the predetermined upper limit temperature Th TH , the holding is impossible. Moreover, since the hot water temperature changes with time, the hot water temperature is sequentially measured by the recognition device 101 while holding the hot water pot, and the holding method specifying means 102 changes the temperature. The holding method may be optimized accordingly.

(5.物品とその周囲の物品との関係に応じた保持方法の特定)
次に、物品とその周囲の物品との関係に応じた保持方法の特定について説明する。これは複数の物品をまとめて保持するときの保持方法に係る。ロボット402が複数の物品の運搬作業を行う際にその物品を一つ一つ保持して運搬することも可能であるが、作業が非効率となることから、複数の物品をまとめて保持して運搬するのである。そして、保持対象物が1つの物品である場合と、複数の物品がまとまって保持対象物となる場合とのそれぞれにおいて、保持方法を最適化させる。
(5. Specifying the holding method according to the relationship between the article and surrounding articles)
Next, the specification of the holding method according to the relationship between the article and the surrounding articles will be described. This relates to a holding method when holding a plurality of articles together. When the robot 402 carries a plurality of articles, it is possible to hold and carry the articles one by one. However, since the work becomes inefficient, the plurality of articles are held together. Carry it. Then, the holding method is optimized in each of the case where the holding object is a single article and the case where a plurality of articles are collected as a holding object.

保持対象物の状況の認識、ここでは、複数の物品が重ねられているか否かは、物品に取り付けられたアンチコリジョン対応の電子タグの情報を読み取ることによって認識可能である。つまり、認識装置101は、電子タグの情報に基づいて、保持対象物の近傍に他の物品が存在するか否かを認識すればよい。この場合、保持装置103はタグリーダ404aをさらに有する。   The recognition of the status of the object to be held, here, whether or not a plurality of articles are stacked, can be recognized by reading information of an anti-collision compatible electronic tag attached to the article. That is, the recognition apparatus 101 may recognize whether another article exists in the vicinity of the holding object based on the information of the electronic tag. In this case, the holding device 103 further includes a tag reader 404a.

また、認識装置101は、カメラ105で撮像した画像に基づいて、複数の物品が重ねられているか否かを認識することも可能である。   The recognition device 101 can also recognize whether or not a plurality of articles are stacked based on an image captured by the camera 105.

そして、保持方法特定手段102は、例えば皿を1枚だけ保持するときは、指型ハンド103aで摘むような保持方法を選択する一方で、複数毎の皿が重ねられているときには、アーム103bとハンド103aとを利用してその重ねられた皿を下から支えるような保持方法を選択する(図24参照)。   For example, when holding only one plate, the holding method specifying unit 102 selects a holding method such as picking with a finger type hand 103a, while when a plurality of plates are stacked, Using the hand 103a, a holding method is selected so as to support the stacked dishes from below (see FIG. 24).

保持装置103は、保持方法特定手段102によって特定された保持方法に従って保持対象物の保持を行う。   The holding device 103 holds the holding object in accordance with the holding method specified by the holding method specifying means 102.

物品が重ねられているか否かは、時間に対して変化する状況であるが、そうした状況を認識することによって状況に応じた保持方法が特定され、状況に応じた最適な保持方法でもって物品の保持が実行される。
(6.学習を利用した保持方法の特定)
物品毎に保持方法を予め設定することは困難である上に、例えば図4A,6,7に示す物品の状況に対応する保持方法を、全ての物品に対し予め設定することはさらに困難である。一方で、物品毎に、さらには物品の状況毎に保持方法を最適化させるためには、物品毎及び物品の状況毎に保持方法を設定する必要がある。
Whether or not an article is stacked is a situation that changes with time, but by recognizing such a situation, a holding method according to the situation is specified, and an article is held with an optimum holding method according to the situation. Retention is performed.
(6. Specifying retention method using learning)
It is difficult to set a holding method for each article in advance, and for example, it is further difficult to set a holding method corresponding to the article situation shown in FIGS. 4A, 6 and 7 in advance for all articles. . On the other hand, in order to optimize the holding method for each article and for each article situation, it is necessary to set the holding method for each article and each article situation.

そこで、保持方法の設定を簡便かつ的確に行うべく、人が行う動作に基づいて物品の保持方法を学習設定してもよい。   Therefore, in order to easily and accurately set the holding method, the article holding method may be learned and set based on an action performed by a person.

図13は、本発明の上記実施形態の変形例であって、学習を行う、物品保持システム11のブロック図を示し、この物品保持システム11は図1に示す物品保持システム10と比較して、学習手段106をさらに含んでいる。この学習手段106は、人が行っている物品の保持動作を認識して、その認識結果に基づいて物品毎の又は物品の状況毎の保持方法を学習設定する。人が行っている物品の保持動作を認識は、認識装置101が行う。   FIG. 13 is a modified example of the above embodiment of the present invention, and shows a block diagram of the article holding system 11 that performs learning. The article holding system 11 is compared with the article holding system 10 shown in FIG. Learning means 106 is further included. The learning means 106 recognizes the holding operation of the article performed by a person, and learns and sets a holding method for each article or each article situation based on the recognition result. The recognition device 101 recognizes a holding operation of an article performed by a person.

人が行っている物品の保持動作は、ステレオカメラとタグリーダとを利用して認識することが可能である。つまり、上記物品保持システム11は、ステレオカメラ105とタグリーダ404aとをさらに有する。   A holding operation of an article performed by a person can be recognized using a stereo camera and a tag reader. That is, the article holding system 11 further includes a stereo camera 105 and a tag reader 404a.

次に、2つの学習手法について具体的に説明する。尚、保持対象物となり得る物品には全て、物体の形状情報及びテクスチャ情報などの情報が記憶された電子
タグが取り付けられているとする。また、物品を操作する人物についても、電子タグを常に持ち歩いているため、タグリーダ404aによって、物品と人物の位置(位置座標)やID情報を取得することができる。
Next, the two learning methods will be specifically described. It is assumed that an electronic tag storing information such as object shape information and texture information is attached to all articles that can be held objects. Further, since the person who operates the article always carries the electronic tag, the tag reader 404a can acquire the position (positional coordinates) and ID information of the article and the person.

学習手法の1つは、物品の移動速度に基づく保持方法の学習設定である。図25は、このときの処理の流れを示したものである。この手法では、先ず、上記認識装置101は、人が物品を保持しているときに、その保持している状況をステレオカメラで撮像させると共に、撮像した画像からオプティカルフローを求める(ステップS201)。   One learning method is a learning setting of a holding method based on the moving speed of an article. FIG. 25 shows the flow of processing at this time. In this method, first, when a person is holding an article, the recognition apparatus 101 captures an image of the held state with a stereo camera and obtains an optical flow from the captured image (step S201).

ここで、もし、撮像範囲内で何も動きがない(電子タグの移動が無い)場合、検出されるオプティカルフローはすべて、非常に小さいものとなる。   Here, if there is no movement within the imaging range (no movement of the electronic tag), all detected optical flows are very small.

一方、撮像範囲内で動きがあった(電子タグの移動があった)場合、動きがあった領域のオプティカルフローは、大きくなる。そこで、領域内のオプティカルフローの大きさを調べ(ステップS202)、もし十分に大きなオプティカルフローが存在しなかった場合、撮像範囲には動きがないと判断し、処理を終了する(ステップS202でNo)。   On the other hand, when there is a motion within the imaging range (the electronic tag has moved), the optical flow in the region where the motion has occurred becomes large. Therefore, the size of the optical flow in the region is checked (step S202). If there is no sufficiently large optical flow, it is determined that there is no movement in the imaging range, and the process ends (No in step S202). ).

一方、十分に大きなオプティカルフローが存在した場合、大きなオプティカルフローが存在する領域を動き領域として抽出する(ステップS202でYes)。   On the other hand, if a sufficiently large optical flow exists, an area where the large optical flow exists is extracted as a motion area (Yes in step S202).

次に、上記認識装置101は、タグリーダを利用して、その動きがあった領域において、何が動いているかを検出する。つまり、電子タグの情報を受信することによって、人によって動かされている物品が何であるかが特定される。動き領域において、物品と人物の電子タグの両方が検出されなかった場合、その動き領域では現在、学習を行う必要はないと考えられ、処理を終了する(ステップS203でNo)。一方、物品と人物の電子タグが両方検出された場合(ステップS203でYes)、その動き領域では現在、保持対象物となり得る物品が人物に動かされていると考えられるため、学習を行う。   Next, the recognition device 101 uses a tag reader to detect what is moving in the area where the movement has occurred. That is, by receiving the information of the electronic tag, it is specified what the article is being moved by a person. If both the article and the person's electronic tag are not detected in the motion area, it is considered that it is not currently necessary to perform learning in the motion area, and the process ends (No in step S203). On the other hand, when both the article and the electronic tag of the person are detected (Yes in step S203), learning is performed because the article that can be held is currently moved by the person in the movement region.

まず、動き領域内に存在する電子タグの情報を取得することによって、物体の形状情報及びテクスチャ情報を取得する(ステップS204)。上記撮像した動き領域の画像から物体のみを抽出して、その動き、具体的にはその物体の移動速度を測定する(ステップS205)。電子タグから取得した物体の形状情報及びテクスチャ情報を利用して、ステレオカメラ画像にパターンマッチング処理を行うことによって、画像中における物体の位置(位置座標)を検出して、その動きを測定することができる。これには、公知の方法を利用することができるので、詳細は省略する(例えば、特許第2961264号公報参照)。   First, object shape information and texture information are acquired by acquiring information on an electronic tag existing in the motion region (step S204). Only the object is extracted from the captured image of the motion region, and the movement, specifically, the moving speed of the object is measured (step S205). Detecting the position (positional coordinates) of an object in the image by performing pattern matching processing on the stereo camera image using the object shape information and texture information acquired from the electronic tag, and measuring its movement Can do. Since a known method can be used for this, details are omitted (see, for example, Japanese Patent No. 2961264).

尚、その物体が小さいときには、人がその物体を掴んだ状態にあって、その物体が人の手に隠れて画像では認識することができない場合も起こり得る。そのような場合には、画像から人の手の領域を抽出してその移動速度を測定すればよい。そして、その測定した移動速度が物体の動きであるとしてもよい。人の手の抽出には、例えば色情報を利用して、画像における肌色の領域のみを抽出すればよい。この抽出処理を各フレームにおいて行うと共に、そのフレーム間で位置(位置座標)の比較を行うことによって物体の動きを測定することができる。   When the object is small, there may be a case where the person is holding the object and the object is hidden behind the person's hand and cannot be recognized in the image. In such a case, an area of a human hand may be extracted from the image and its moving speed may be measured. The measured moving speed may be the movement of the object. For the extraction of the human hand, for example, only the skin color region in the image may be extracted using color information. While performing this extraction process in each frame, the movement of the object can be measured by comparing the positions (positional coordinates) between the frames.

もちろん、上記のようなステレオカメラとタグリーダは上記物品保持システム11に直接設置されている必要はない。前述の環境管理サーバ401に設置し、環境管理サーバ401が検出した情報を、送受信手段409を利用して、送受信するようにしても構わない。   Of course, the stereo camera and the tag reader as described above do not need to be directly installed in the article holding system 11. Information installed in the environment management server 401 and detected by the environment management server 401 may be transmitted and received using the transmission / reception means 409.

以上の処理によって、人が物品を保持している状態におけるその物品の移動速度を測定することができ、例えば図14A及び図14Bに示すように、ぬいぐるみの移動速度(図14A参照)は、花瓶の移動速度(図14B参照)に比べて高いことが判明する。つまり、人はぬいぐるみは素早く動かしている一方で、花瓶はゆっくりと動かしていることになる。物品の移動速度は、前述の超音波を利用したタグセンサを利用することで取得することができる。   Through the above processing, it is possible to measure the moving speed of the article while the person is holding the article. For example, as shown in FIGS. 14A and 14B, the moving speed of the stuffed animal (see FIG. 14A) It turns out that it is higher than the moving speed (see FIG. 14B). In other words, the person is moving the stuffed animal quickly while the vase is moving slowly. The moving speed of the article can be acquired by using the above-described tag sensor using ultrasonic waves.

学習手段106は、その認識結果に基づいて各物品の保持方法を例えば図26に示すようにテーブル形式で設定し、保持方法特定手段102は、認識装置101によって認識された結果(保持対象物が何であるかの認識結果)に基づいて、学習手段106によって学習設定された保持方法を特定する。そうして、図26に示すように、保持対象物がぬいぐるみであるときには、比較的速い移動速度の保持方法が特定され、保持対象物が花瓶であるときには、比較的遅い移動速度の保持方法が特定される。これは、前述のようにして、人が各対象物をどのような速度で移動速度で動かしているかを図26に示すようにテーブル形式で物品及び移動体データベース406や保持方法データベース102dなどのデータベースとして蓄積し、そのデータベースを利用することで実現する。   The learning means 106 sets the holding method of each article in a table format based on the recognition result, for example, as shown in FIG. 26, and the holding method specifying means 102 determines the result (the holding object is recognized) by the recognition device 101. Based on the recognition result), the holding method learned and set by the learning means 106 is specified. Then, as shown in FIG. 26, when the holding object is a stuffed animal, a relatively fast moving speed holding method is specified, and when the holding object is a vase, a relatively slow moving speed holding method is specified. Identified. As described above, this is a database such as the article and moving object database 406 and the holding method database 102d in a table format as shown in FIG. This is realized by using the database.

もう1つの学習手法は、物品に対して人の手の位置(位置座標)がどこに存在しているかに基づく保持方法の学習設定である。   Another learning method is a learning setting of a holding method based on where the position (positional coordinates) of a human hand exists with respect to an article.

この学習手法について図15A及び図15Bを参照しながら説明する。図15Aは、人がぬいぐるみ151を保持しているときの様子を示し、図15Bは人が花瓶152を保持しているときの様子を示す。   This learning method will be described with reference to FIGS. 15A and 15B. FIG. 15A shows a situation when a person is holding a stuffed animal 151, and FIG. 15B shows a situation when a person is holding a vase 152.

上記認識装置101は、人が物品を保持しているときに、その保持している状況をステレオカメラで撮像させる。上述したように、その撮像画像において、人の手153,154の位置(位置座標)、物品の位置(位置座標)を特定することによって、人が物品をどのように保持しているかが検出される。   When the person is holding an article, the recognition device 101 causes the stereo camera to capture an image of the held state. As described above, by identifying the positions (position coordinates) of the human hands 153 and 154 and the position (position coordinates) of the article in the captured image, it is detected how the person holds the article. The

図15Aでは、ぬいぐるみ151の近傍に人の手153が1つ存在しているが、もう1つの手154はぬいぐるみ151とは離れた位置(位置座標)に存在している。このことから、人はぬいぐるみ151を片手で保持していると認識することができる。これに対し、図15Bでは、花瓶152の近傍には、人の手153,154が2つ存在している。このことから、人は花瓶152を両手で保持していることが認識される。   In FIG. 15A, one human hand 153 exists in the vicinity of the stuffed animal 151, but the other hand 154 exists at a position (positional coordinates) away from the stuffed animal 151. From this, the person can recognize that the stuffed animal 151 is held with one hand. On the other hand, in FIG. 15B, two human hands 153 and 154 exist in the vicinity of the vase 152. From this, it is recognized that the person holds the vase 152 with both hands.

学習手段106は、この認識結果に基づいて、ぬいぐるみ151に対しては1つのハンドによって保持する保持方法を設定し、花瓶152に対して2つのハンドによって花瓶の2箇所を保持する保持方法を設定する。尚、この学習手法は、保持装置103が人と同様の双腕構成であるときに、採用することが望ましい。   Based on the recognition result, the learning means 106 sets a holding method for holding the stuffed animal 151 by one hand, and sets a holding method for holding two portions of the vase by two hands for the vase 152. To do. This learning method is desirably employed when the holding device 103 has a double-arm configuration similar to that of a person.

図27及び図28は、こうして学習した保持方法をテーブル形式で、物品及び移動体データベース406や保持方法データベース102dなどのデータベースに蓄積した一例を示している。対象物の電子タグには、図28の保持レベルの中の1つの保持レベルが図27に示すように記憶されている。このようなデータベースを学習することによって、保持対象物ごとに柔軟な保持動作を実現することができる。   27 and 28 show an example in which the holding method learned in this way is stored in a table format in a database such as the article and moving object database 406 and the holding method database 102d. In the electronic tag of the object, one holding level among the holding levels shown in FIG. 28 is stored as shown in FIG. By learning such a database, a flexible holding operation can be realized for each holding object.

また、単腕・双腕、二つの保持方法を場面に応じて使い分けるために、物品及び移動体データベース406や保持方法データベース102dなどのデータベースを図29のように作成しても構わない。これは、例えば、既にある対象物を単腕で保持している状態で、別の対象物を保持する場合などに有効である。すなわち、一つの対象物の保持を行う場合には双腕を利用するが、二つの対象物の保持を行う場合には単腕で、別々に保持を行う。これにより、保持対象物が複数ある場合でも、最適な保持方法で対象物を保持することができる。   Further, in order to use the single arm / double arm and the two holding methods properly according to the scene, a database such as the article and moving body database 406 and the holding method database 102d may be created as shown in FIG. This is effective, for example, when another object is held while an existing object is held by a single arm. That is, when holding one object, a double arm is used, but when holding two objects, a single arm is used to hold the objects separately. Thereby, even when there are a plurality of holding objects, the object can be held by an optimum holding method.

上述した学習手段106による学習は、物品毎の保持方法を学習しているだけであったが、人が保持しているときの物品の状況をさらに認識することによって、物品の状況と保持方法とを対応させて学習することも可能である。例えば人がグラスを保持しているときに、そのグラスに水が入っているか否かをさらに認識することによって、グラスに水が入っているときの保持方法、又は水が入っていないときの保持方法を学習することができる。そうした学習を行うことによって、図4A,6,7に示すようなデータベースを学習によって作成することができる。   The learning by the learning means 106 described above is only learning the holding method for each article. However, by further recognizing the situation of the article when a person is holding, the situation of the article and the holding method It is also possible to learn in correspondence. For example, when a person is holding a glass, by further recognizing whether or not the glass is filled with water, the holding method when the glass is filled with water, or when the glass is not filled with water You can learn how. By performing such learning, a database as shown in FIGS. 4A, 6 and 7 can be created by learning.

学習によって保持方法を設定することにより、物品毎、又は物品の状況毎に保持方法を予め設定しなくてもよくなる一方で、人が行っている保持動作に基づいて保持方法を学習することによって、適切な保持方法を設定することができる。   By setting the holding method by learning, it is not necessary to preset the holding method for each article or each situation of the article, while by learning the holding method based on the holding operation performed by a person, Appropriate holding method can be set.

尚、学習手段106による学習は、人が、ロボット402に対して物品を手渡しすると共に、その物品に対する作業を指示するときに行ってもよい。つまり、人がロボット402に対して物品を手渡しするときの動作を認識すると共に保持方法を学習して、その人と同じ動作でロボット402がその後の作業を行うのである。   The learning by the learning means 106 may be performed when a person hands over an article to the robot 402 and instructs a work on the article. In other words, the robot 402 recognizes the operation when the person hands over the article to the robot 402 and learns the holding method, and the robot 402 performs the subsequent operation with the same operation as that person.

このタイミングで学習を行うことで、学習精度が高まるという利点がある。つまり、人がロボット402に物品を手渡しするときは、その人はロボット402に正対している場合が多い。ステレオカメラは通常、正対した物体の計測が精度が高くなるように設計されていることから、人が保持対象物をロボット402に手渡すときに学習を行うことによって、手の位置(位置座標)や保持対象物の位置(位置座標)の検出精度が高まり、学習の精度が高まる。   By performing learning at this timing, there is an advantage that learning accuracy increases. That is, when a person hands over an article to the robot 402, the person often faces the robot 402. Since the stereo camera is usually designed so that the measurement of the directly facing object is highly accurate, the position of the hand (positional coordinates) is obtained by performing learning when a person hands the holding object to the robot 402. In addition, the detection accuracy of the position (positional coordinates) of the object to be held increases and the learning accuracy increases.

また、上述した学習手法は、人が物品を保持している状況を撮像した画像に基づいて行っているが、これに限るものではない。例えば保持対処物となり得る各物品に、その3次元的な位置(位置座標)が検出可能なIDタグを取り付け、そのタグ情報に基づいて学習を行うことが可能である。つまり、タグ情報によってその物体の移動軌跡を検出することが可能になるため、その移動軌跡に基づいてその物体がどのように保持されたか(その移動速度)を検出することができる。尚、3次元位置(位置座標)が検出可能なタグとしては超音波を用いるタグが知られている(例えば「超音波式3次元タグを用いた人の日常活動の頑健な計測 〜冗長なセンサ情報に基づくロバスト位置推定〜」、西田佳史、相澤洋志、堀俊夫、柿倉正義、第20回日本ロボット学会学術講演会講演論文集、3C18、2002)。   Moreover, although the learning method mentioned above is performed based on the image which imaged the condition where the person is holding the articles | goods, it is not restricted to this. For example, it is possible to attach an ID tag capable of detecting a three-dimensional position (position coordinates) to each article that can be a held countermeasure, and perform learning based on the tag information. That is, since it is possible to detect the movement trajectory of the object based on the tag information, it is possible to detect how the object is held (the movement speed) based on the movement trajectory. As a tag capable of detecting a three-dimensional position (position coordinates), a tag using an ultrasonic wave is known (for example, “a robust measurement of a person's daily activities using an ultrasonic three-dimensional tag—a redundant sensor” Robust location estimation based on information ", Yoshifumi Nishida, Hiroshi Aizawa, Toshio Hori, Masayoshi Sasakura, Proc. 20th Annual Conference of the Robotics Society of Japan, 3C18, 2002).

また、例えば「赤外線画像を用いた視体積交差法による把持形状の認識」、橋本健太郎、小川原光一、高松淳、池内克史。コンピュータビジョンとイメージメディア135−10、pp.55−62、2002)に開示されている技術を利用することによっても、人が物品をどのように把持しているかを検出、認識することが可能である。この手法を採用する場合も、保持装置103は、人と同様にアーム103b及びハンド103aを備えていることが望ましい。   Also, for example, “Recognition of grasped shape by visual volume intersection method using infrared image”, Kentaro Hashimoto, Koichi Ogawara, Satoshi Takamatsu, Katsushi Ikeuchi. Computer vision and image media 135-10, pp.55-62, 2002) can also be used to detect and recognize how a person is holding an article. is there. Even when this method is employed, it is desirable that the holding device 103 includes the arm 103b and the hand 103a in the same manner as a person.

さらに、学習手段106による学習は、特定の人を学習対象にして、その人が物品を保持しているときにのみ行うことが好ましい。これは、同じ物品であっても人によって保持動作が異なるためである。例えば、保持する物品が同じぬいぐるみ151であっても、子供は乱雑に保持する一方で、お母さんは丁寧に保持し、また、おばあさんはゆっくりと保持する、ということは多々ある。つまり、人による物品の保持動作には個人差があるため、人が行う動作に基づいて物品の保持方法を学習する際に、個人差が含まれてしまう。このことから、特定の人を学習対象に設定して、その人が物品を保持しているときに学習を行う。そのことによって、学習設定される保持方法から、個人差を排除することができる。   Furthermore, learning by the learning means 106 is preferably performed only when a specific person is a learning target and the person holds the article. This is because the holding operation differs depending on the person even for the same article. For example, even if the article to be held is the same stuffed animal 151, the child often holds it messy, while the mother holds it carefully, and the grandmother holds it slowly. In other words, since there are individual differences in the holding operation of an article by a person, the individual difference is included when learning the holding method of the article based on the action performed by the person. From this, a specific person is set as a learning target, and learning is performed when the person holds the article. As a result, individual differences can be excluded from the holding method that is set for learning.

これとは異なり、複数の人それぞれによる物品の保持動作を個別に学習すると共に、その中から最適な保持方法を選択するようにしてもよい。最適な保持方法の選択手法としては種々の手法が考えられる。例えば学習した様々な保持方法を実際に試し、その保持方法の安定性を評価することによって選択してもよい。また、学習した様々な保持方法を実際に試し、そのときに周囲に存在している人の反応に応じて選択してもよい。つまり、周囲に存在している人の快・不快を顔画像から認識し、人が最も心地よいと感じている保持方法を選択してもよい。   In contrast to this, it is possible to individually learn the holding operation of the article by each of a plurality of people, and to select an optimal holding method from among them. Various methods can be considered as a method for selecting the optimum holding method. For example, various learned holding methods may be actually tested and selected by evaluating the stability of the holding method. Further, various learned holding methods may be actually tried, and selection may be made according to the reactions of the people present at that time. That is, it is possible to recognize the pleasantness / discomfort of a person existing in the surroundings from the face image and select a holding method that the person feels most comfortable.

さらに、複数の人それぞれによる物品の保持動作を個別に学習しておき、物品保持システム11が物品の保持を実行する際の対象となる人に対応する保持方法を選択してもよい。例えばロボット402が物品を人に手渡しする作業を実行するときには、その手渡しする相手の人の保持動作から学習した保持方法に従って、物品の保持を行う。こうすることで、ロボット402は、相手の人が通常保持しているように物品を保持することになり、ロボット402の保持動作を個別に適用することができる。   Furthermore, the holding | maintenance operation | movement of the goods by each of several persons may be learned separately, and the holding | maintenance method corresponding to the person who becomes the object at the time of the goods holding system 11 performing holding | maintenance of goods may be selected. For example, when the robot 402 performs an operation of handing an article to a person, the article is held according to the holding method learned from the holding operation of the person to whom the hand is delivered. By doing so, the robot 402 holds the article as the other person normally holds, and the holding operation of the robot 402 can be individually applied.

(7.保持方法の類推)
次に、保持方法を類推によって特定することについて説明する。この処理も、全ての保持対象物に対して保持方法を予め設定する必要がなくなる、という利点がある。
(7. Analogy of holding method)
Next, specifying the holding method by analogy will be described. This process also has an advantage that it is not necessary to set a holding method in advance for all holding objects.

この処理について、具体例を挙げて説明する。ここでは、皿の保持方法とぬいぐるみの保持方法とは、それぞれ予め設定されている(上述した学習によって設定されていてもよいし、ユーザ又はメーカが予め設定していてもよい)とする一方で、コップの保持方法は未だ設定されていないと仮定する。   This process will be described with a specific example. Here, the holding method of the dish and the holding method of the stuffed toy are each set in advance (may be set by learning described above, or may be set in advance by the user or the manufacturer). Suppose that the cup retention method has not yet been set.

そして、認識装置101によって保持対象物がコップであることが認識されたときに、保持方法特定手段102は、そのコップの保持方法を、既に設定されている保持方法の内から最適と考えられる保持方法を選択する。この選択に際し、保持方法特定手段102は、例えば物品の反射パラメータや形状データを利用してもよい。ここで、反射パラメータは物品の材質に依存するパラメータであり、このパラメータが近い程、材質が近いと判断可能である(反射パラメータについては後述する)。つまり、材質又は形状が近似する物品同士は、その保持方法も同じであると考えられ、上記保持方法特定手段102は、保持方法が設定されていない物品(未設定物品)に対して、材質又は形状が近似する物品について設定されている保持方法を、上記未設定物品の保持方法に特定する。   Then, when the recognition apparatus 101 recognizes that the object to be held is a cup, the holding method specifying unit 102 holds the cup that is considered to be the best holding method among the already set holding methods. Select a method. In this selection, the holding method specifying means 102 may use, for example, the reflection parameter or shape data of the article. Here, the reflection parameter is a parameter that depends on the material of the article, and the closer this parameter is, the closer the material can be determined (the reflection parameter will be described later). In other words, articles having similar materials or shapes are also considered to have the same holding method, and the holding method specifying unit 102 can use a material or an item for an article (unset article) for which no holding method is set. A holding method set for an article having an approximate shape is specified as the holding method for an unset article.

具体的に上記の例では、保持方法特定手段102は、コップの反射パラメータ、皿の反射パラメータ、ぬいぐるみの反射パラメータを相互に比較する。コップの反射パラメータは、ぬいぐるみの反射パラメータよりも皿の反射パラメータに近いため、上記保持方法特定手段102は、コップの保持方法として皿の保持方法を採用する。このように、類推を利用して保持方法を特定することによって、全ての保持対象物に対して保持方法を予め設定していなくても、保持装置103によって各種の物品を最適に保持することができる。   Specifically, in the above example, the holding method specifying unit 102 compares the reflection parameter of the cup, the reflection parameter of the dish, and the reflection parameter of the stuffed animal. Since the reflection parameter of the cup is closer to the reflection parameter of the dish than the reflection parameter of the stuffed animal, the holding method specifying means 102 employs a dish holding method as the cup holding method. In this way, by specifying the holding method using analogy, it is possible to optimally hold various articles by the holding device 103 even if the holding method is not set in advance for all holding objects. it can.

(第2実施形態)
図16は、本発明の第2実施形態における物品保持システム12の基本構成を示すブロック図である。本実施形態の物品保持システム12は、認識装置101、保持方法特定手段102、及び保持装置103を含む。上記認識装置101は、保持対象物を撮影する撮像装置105、撮像した画像から対象物の材質を認識する材質認識手段107を含む。
(Second Embodiment)
FIG. 16 is a block diagram showing a basic configuration of the article holding system 12 in the second embodiment of the present invention. The article holding system 12 of the present embodiment includes a recognition device 101, a holding method specifying unit 102, and a holding device 103. The recognizing device 101 includes an imaging device 105 that captures an object to be held, and a material recognizing unit 107 that recognizes the material of the object from the captured image.

尚、第2実施形態の物品保持システム12において、第1実施形態の物品保持システム10と同じ手段や装置については、同一符号を付してその詳細な説明は省略する。   In the article holding system 12 of the second embodiment, the same means and devices as those of the article holding system 10 of the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

上記撮像装置105は、カメラ105等の撮像素子を利用して保持対象物を撮影する。   The imaging device 105 captures an object to be held using an imaging element such as the camera 105.

上記材質認識手段107は、先ず撮像装置105で撮像された画像から対象物の反射パラメータを推定し、次に推定された反射パラメータからその材質を認識する。これは材質によって反射特性が変化することを利用している。   The material recognizing means 107 first estimates the reflection parameter of the object from the image captured by the imaging device 105, and then recognizes the material from the estimated reflection parameter. This utilizes the fact that the reflection characteristics change depending on the material.

上記保持方法特定手段102は、上記材質認識手段107によって認識された材質に基づいて保持方法を特定する。   The holding method specifying unit 102 specifies a holding method based on the material recognized by the material recognizing unit 107.

本実施形態の物品保持システム12も、図2Aに示すようなロボット402に搭載される。このロボット402において、撮像装置105としてのカメラは人型ロボット402の顔に埋め込む、としてもよい。また、保持対象物を照明する光源104(本実施形態では、第1実施形態のようにレーザ照射装置とする必要はない)を、ロボット402のアーム103gに取り付けることによって、その位置(位置座標)を任意に変更することが望ましい。   The article holding system 12 of this embodiment is also mounted on a robot 402 as shown in FIG. 2A. In this robot 402, the camera as the imaging device 105 may be embedded in the face of the humanoid robot 402. Further, by attaching a light source 104 (in this embodiment, it is not necessary to use a laser irradiation apparatus as in the first embodiment) to the arm 103g of the robot 402, the position (positional coordinates) thereof is illuminated. It is desirable to change arbitrarily.

次に、上記材質認識手段107による、撮影した画像から対象物の反射パラメータを推定し、その推定された反射パラメータから材質を認識する方法を詳述する。そのために、先ず広く使われている反射モデルであるTorrance-Sparrowモデルについて説明する。   Next, a method for estimating the reflection parameter of the object from the photographed image by the material recognition means 107 and recognizing the material from the estimated reflection parameter will be described in detail. For this purpose, the Torrance-Sparrow model, which is a widely used reflection model, will be described first.

2色性反射モデルの一つであるTorrance-Sparrowモデルは、物体反射光を鏡面反射成分と拡散反射成分の和として表現する。(式1)は簡略化したTorrance-Sparrowモデルの式である。   The Torrance-Sparrow model, which is one of the dichroic reflection models, expresses object reflected light as the sum of specular reflection components and diffuse reflection components. (Expression 1) is a simplified Torrance-Sparrow model expression.

Figure 0004646943

(式1)における第1項は拡散反射成分を表し、第2項は鏡面反射成分を表している。ここで、cはRGB(赤緑青)のいずれか、icは画像面の明るさ、Lcは光源の光度、Rは光源から物体表面の各点までの距離であり、照明光強度がこの距離の2乗に反比例して減衰する特性を考慮して導入されたものである。Kd,cとKs,cとはそれぞれ、拡散反射成分と鏡面反射成分に対応する反射係数、σは表面粗さを示す。また、θiは物体表面の点における入射角であって、法線方向と光源方向とがなす角度、θrは法線方向と視線方向とがなす角度、αは光源方向と視線方向の2等分方向と法線方向とがなす角度である。
Figure 0004646943

The first term in (Expression 1) represents a diffuse reflection component, and the second term represents a specular reflection component. Here, c is one of RGB (red, green and blue), i c is the distance in the brightness of the image plane, L c is the light source intensity, R represents a light source to each point of the object surface, the illumination light intensity is the This is introduced in consideration of the characteristic of attenuation in inverse proportion to the square of the distance. K d, c and K s, c are reflection coefficients corresponding to the diffuse reflection component and the specular reflection component, respectively, and σ is the surface roughness. Θ i is an incident angle at a point on the object surface, and is an angle formed by the normal direction and the light source direction, θ r is an angle formed by the normal direction and the line-of-sight direction, and α is 2 of the light source direction and the line-of-sight direction. It is an angle formed by the equally dividing direction and the normal direction.

これらの関係を図17に示す。この図において、200,105,104はそれぞれ保持対象物、カメラ、光源を示し、ベクトルNは保持対象物200表面の法線方向を示し、ベクトルV,L,Hはそれぞれカメラ方向、光源方向、カメラ方向と光源方向との二等分線方向を示している。ここで、

Figure 0004646943

とすると(式1)は以下のように変形される。
Figure 0004646943

つまり、Kd、Ks及びσのパラメータを推定することができれば、対象物の反射特性を記述することができ、対象物の材質を推定することができる。そこで、これらのパラメータを反射パラメータと呼ぶ。 These relationships are shown in FIG. In this figure, reference numerals 200, 105, and 104 denote a holding object, a camera, and a light source, respectively, vector N denotes a normal direction of the surface of the holding object 200, and vectors V, L, and H denote a camera direction, a light source direction, and The bisector direction between the camera direction and the light source direction is shown. here,
Figure 0004646943

Then, (Equation 1) is modified as follows.
Figure 0004646943

That is, if the parameters K d , K s, and σ can be estimated, the reflection characteristics of the object can be described, and the material of the object can be estimated. Therefore, these parameters are called reflection parameters.

反射パラメータの推定は、以下の3つのステップからなる。
1)保持対象物の正確な位置(位置座標)と形状、姿勢の推定
2)拡散反射領域と鏡面反射領域との分離
3)反射パラメータの推定
以下、順番に各ステップについて説明する。
The estimation of the reflection parameter consists of the following three steps.
1) Precise position (position coordinates), shape and orientation estimation of holding object 2) Separation of diffuse reflection area and specular reflection area 3) Estimation of reflection parameters Each step will be described below in order.

1)保持対象物の正確な位置(位置座標)と形状、姿勢の推定
保持対象物にはその形状を記憶した電子タグが設置されているとする。
1) Estimating the exact position (positional coordinates), shape, and orientation of the holding object Assume that an electronic tag storing the shape is installed on the holding object.

ここでは、その形状情報とステレオ視から求められた保持対象物の3次元位置情報との対応を求めることによって、対象物の正確な位置(位置座標)と形状、姿勢を求める方法を説明する。尚、保持対象物の3次元位置情報は、保持対象物の材質を推定するためだけでなく、上述したように、保持装置103が保持対象物の保持を行うためにも必要な情報である。   Here, a method for obtaining the exact position (position coordinates), shape, and orientation of the object by obtaining the correspondence between the shape information and the three-dimensional position information of the holding object obtained from the stereo vision will be described. The three-dimensional position information of the holding object is information necessary not only for estimating the material of the holding object but also for holding the holding object as described above.

画像を利用した3次元位置検出法として、ブロックマッチング法を利用したステレオ視が広く使われている。この方法では、対象を複数のカメラで撮影し、画像間の対応を分割したブロック(点)ごとに求める。こうして求まった対応点から3次元位置(位置座標)を求める。   Stereo vision using a block matching method is widely used as a three-dimensional position detection method using an image. In this method, a target is photographed with a plurality of cameras, and correspondence between images is obtained for each divided block (point). A three-dimensional position (position coordinates) is obtained from the corresponding points thus obtained.

求める対応点の数が十分に多い場合は、この方法によって対象物の形状まで求めることができるが、処理時間やマッチング精度の問題から、対象物に対して疎な3次元位置(位置座標)しか求めることができない場合が多い。そのため、必要な情報は対象物の位置(位置座標)と形状、姿勢情報であるのに対し、この方法で求まるのは、複数点の3次元位置(位置座標)であるという問題が生じる。つまり、3次元位置(位置座標)が求まった点の集合から、保持対象物の正確な位置(位置座標)と形状、姿勢を求める手段が必要となる。そこで、電子タグに記憶された表面形状情報を利用し、その位置(位置座標)と姿勢を推定する。   When the number of corresponding points to be obtained is sufficiently large, the shape of the object can be obtained by this method, but due to processing time and matching accuracy, only a three-dimensional position (positional coordinates) that is sparse with respect to the object is obtained. There are many cases where it cannot be obtained. Therefore, while the necessary information is the position (position coordinates), shape, and orientation information of the object, there is a problem that what is obtained by this method is a three-dimensional position (position coordinates) of a plurality of points. That is, a means for obtaining the exact position (position coordinates), shape, and orientation of the holding object from the set of points for which the three-dimensional position (position coordinates) has been obtained is required. Therefore, the surface shape information stored in the electronic tag is used to estimate its position (positional coordinates) and posture.

図18A〜図18Eはこの処理に関する概念図を示す。図18Aの各点はブロックマッチング法により3次元位置(位置座標)の求まった点を示している。図18Bは電子タグに記憶されている保持対象物の形状情報を示している。ここで保持対象物は半径r、高さhの円柱であるとする。   18A to 18E are conceptual diagrams regarding this processing. Each point in FIG. 18A indicates a point whose three-dimensional position (positional coordinate) is obtained by the block matching method. FIG. 18B shows the shape information of the holding object stored in the electronic tag. Here, it is assumed that the object to be held is a cylinder having a radius r and a height h.

ブロックマッチング法によって3次元位置(位置座標)が求められた点は全て、対象物の表面上の点であると考えられる。そこで、電子タグから求めた形状データを、3次元空間上に位置姿勢を少しずつ変化させながら順に仮想的に配置する(図18C、図18D、図18E参照)。そして、ブロックマッチング法によって3次元位置(位置座標)が求められた点のうち、仮想の形状データの表面上に存在する点の数をカウントする(図18C、図18D、図18Eにおいて丸で囲んだ点)。そして、カウントされた点の数が最大となる位置(位置座標)、姿勢を、その対象物の位置(位置座標)、姿勢であると推定する(図例では、図18D)。   All points for which the three-dimensional position (positional coordinates) is obtained by the block matching method are considered to be points on the surface of the object. Therefore, the shape data obtained from the electronic tag is virtually arranged in order in the three-dimensional space while gradually changing the position and orientation (see FIGS. 18C, 18D, and 18E). Then, the number of points existing on the surface of the virtual shape data among the points whose three-dimensional positions (position coordinates) are obtained by the block matching method is counted (circled in FIGS. 18C, 18D, and 18E). Point). Then, it is estimated that the position (positional coordinate) and orientation at which the number of counted points is the maximum are the position (positional coordinate) and orientation of the object (FIG. 18D in the example).

尚、保持対象物に電子タグが設置されておらず、その形状が未知の場合であっても、レーザーレンジファインダや超音波センサ、光切断法や高精度のステレオ視等の、高精度の3次元計測法を利用することによって、対象物の位置(位置座標)と形状、姿勢を直接求めることも可能である。   Even if the electronic tag is not installed on the object to be held and its shape is unknown, high precision 3 such as laser range finder, ultrasonic sensor, optical cutting method, high precision stereo vision, etc. By using the dimension measurement method, it is also possible to directly determine the position (positional coordinates), shape, and orientation of the object.

2)拡散反射領域と鏡面反射領域との分離
次に、対象物を撮影した画像を拡散反射領域と鏡面反射領域とに分離する。ここでは、カメラ105を固定し、光源104を動かしながら撮影した複数枚の画像(図19A〜図19D参照)を用いて領域分割を行う方法を利用する(「光学現象の分類基準を利用した画像の線形化」、石井育規、福井孝太郎、向川康博、尺長健、画像の認識・理解シンポジウム(MIRU2002)、vol.2、pp.167-176)。
2) Separation of diffuse reflection area and specular reflection area Next, an image obtained by photographing an object is separated into a diffuse reflection area and a specular reflection area. Here, a method of dividing a region using a plurality of images (see FIGS. 19A to 19D) captured while fixing the camera 105 and moving the light source 104 is used (“image using optical phenomenon classification criteria”). ”, Ikui Ishii, Fukui Kotaro, Mukaikawa Yasuhiro, Shaku Naga Takeshi, Image Recognition and Understanding Symposium (MIRU2002), vol.2, pp.167-176).

この方法は、Lambertianモデルを仮定した画像は、光源の異なる3枚の画像の線形結合により任意光源の画像を表現できることを利用して、画像を完全拡散反射領域、鏡面反射領域等に分類する方法である。   This method uses the fact that an image assuming a Lambertian model can represent an image of an arbitrary light source by linearly combining three images with different light sources, and classifies the image into a completely diffuse reflection region, a specular reflection region, etc. It is.

図20A〜図20Dは、それぞれ、図19A〜図19Dに示す画像をこの方法で領域分割した図を示している。図20A〜図20Dにおいて塗りつぶした領域1301〜1304が、鏡面反射領域を示している。   20A to 20D show diagrams obtained by dividing the image shown in FIGS. 19A to 19D into regions by this method, respectively. 20A to 20D, the filled areas 1301 to 1304 indicate specular reflection areas.

この際、光源104は、その位置を変更するために、上述したように、ロボット402のアーム103bに設置することが望ましいが、例えば光源104は、家庭内に設置された照明等の、インフラに設けられているものを利用してもよい。その場合に、光源の位置が変更されるように家電連携を行ってもよい。   At this time, in order to change the position of the light source 104, it is desirable to install the light source 104 on the arm 103b of the robot 402 as described above. For example, the light source 104 is installed in infrastructure such as lighting installed in the home. You may use what is provided. In that case, home appliance cooperation may be performed so that the position of the light source is changed.

また、カメラ105を固定して光源104の位置を変更するのではなく、光源104を固定しカメラ105の位置を変更してもよい。この場合は、位置を変更して撮像した各画像間において各画素同士の対応が求められている必要がある。   Instead of fixing the camera 105 and changing the position of the light source 104, the light source 104 may be fixed and the position of the camera 105 may be changed. In this case, the correspondence between the pixels needs to be calculated between the images captured by changing the positions.

尚、鏡面反射領域の推定方法は、上述した方法に限らず、例えば偏向フィルタを用いた推定方法であってもよい。また、画像内の高輝度領域を切り出すことによる推定であってもよい。具体的には、鏡面反射領域は輝度が十分に高い画素であると仮定し、ある画素の輝度i(x)が以下の式を満たす場合に、その画素を拡散反射領域とすればよい。   Note that the specular reflection region estimation method is not limited to the method described above, and may be an estimation method using a deflection filter, for example. Alternatively, the estimation may be performed by cutting out a high luminance area in the image. Specifically, the specular reflection region is assumed to be a pixel having sufficiently high luminance, and when the luminance i (x) of a certain pixel satisfies the following expression, the pixel may be used as the diffuse reflection region.

Figure 0004646943

ここで、Thdとは、鏡面反射と拡散反射を区別する閾値である。
Figure 0004646943

Here, Th d is a threshold value for distinguishing between specular reflection and diffuse reflection.

3)反射パラメータの推定
次に、分離された拡散反射領域と鏡面反射領域の情報を利用して反射パラメータを推定する方法について説明する。
3) Estimation of reflection parameter Next, a method for estimating the reflection parameter using the information of the separated diffuse reflection area and specular reflection area will be described.

まず、拡散反射領域の情報を利用して、反射パラメータKdの推定を行う。拡散反射領域では、鏡面反射成分がほぼ0と考えられるので、(式2)より、以下の関係が成り立つ。 First, the reflection parameter K d is estimated using the information of the diffuse reflection region. In the diffuse reflection region, since the specular reflection component is considered to be almost zero, the following relationship is established from (Equation 2).

Figure 0004646943

上述したように、光源104はアーム103bによって位置が制御されるため、光源104の方向は既知となる。また、保持対象物の位置(位置座標)と形状、姿勢も得られているため、対象物表面の法線方向、つまりcos(θi)も既知である。
Figure 0004646943

As described above, since the position of the light source 104 is controlled by the arm 103b, the direction of the light source 104 is known. Further, since the position (positional coordinates), shape, and orientation of the holding object are also obtained, the normal direction of the object surface, that is, cos (θ i ) is also known.

光源104の位置を変えて撮影した複数枚の画像全てにおいてこれらの情報が既知であるため、(式3)において、対象物の各点においてを変化させたときのIcの変化が既知であることがわかる。そこで、対象物の点毎に、(式3)を最小自乗法等の手法を用いて解くことにより、各点のKdを推定することができる。この際、各輝度値は、ノイズや3次元位置推定ミスの影響等によって、はずれ値となることが多いため、RANSAC(RANdom Sample Consensus)やSVDMD(Singular Value Decomposition with Missing Data)等、はずれ値を除去することが可能な最適化手法を用いることが望ましい。 In the position all of the plurality of images taken by changing the light source 104 for these pieces of information is known, in (Equation 3), a known change in I c when changing the at each point of the object I understand that. Therefore, K d of each point can be estimated by solving (Equation 3) using a method such as a least square method for each point of the object. At this time, since each luminance value often becomes an outlier due to the influence of noise or a three-dimensional position estimation error, the outlier value such as RANSAC (RANdom Sample Consensus) or SVDMD (Singular Value Decomposition with Missing Data) is used. It is desirable to use an optimization technique that can be eliminated.

尚、反射パラメータKdを点毎に求めるのではなく、前処理として画像を材質毎に領域分割しておき、その領域毎に反射パラメータKdを求めてもよい。 Instead of obtaining the reflection parameter Kd for each point, the image may be divided into regions for each material as preprocessing, and the reflection parameter Kd may be obtained for each region.

こうした領域分割の方法としては、色が同じ領域は同じ材質であると仮定して色を基準に分割してもよい。また、形状情報を利用して分割してもよい。例えば「ある平面上の領域はすべて同一の材質である」という仮定をおくことによって分割可能である。   As such a region dividing method, the regions having the same color may be divided on the basis of the color on the assumption that the regions are made of the same material. Moreover, you may divide | segment using the shape information. For example, it is possible to divide by assuming that “the areas on a certain plane are all of the same material”.

次に、鏡面反射領域の情報を利用して、反射パラメータKsとσとを推定する。鏡面反射領域の反射パラメータはその近傍のものと同じである、と仮定すると、鏡面反射領域の拡散反射成分を示すパラメータKdは周辺の領域から求めることができる。そこで、(式2)は以下のように変形することができる。 Next, the reflection parameters K s and σ are estimated using the information of the specular reflection region. Assuming that the reflection parameter of the specular reflection region is the same as that in the vicinity thereof, the parameter K d indicating the diffuse reflection component of the specular reflection region can be obtained from the surrounding region. Therefore, (Equation 2) can be modified as follows.

Figure 0004646943

ここで、右辺とcos(θr)、αは全て既知であるため、鏡面反射成分を表す反射パラメータKs,σを推定することができる。
Figure 0004646943

Here, since the right side, cos (θ r ), and α are all known, the reflection parameters K s and σ representing the specular reflection component can be estimated.

こうして求まった反射パラメータと、データベース上に記憶されている各材質の反射パラメータをSVM(Support Vector Machine)等の公知の方法で比較・分類することによって、対象物の材質を推定する。   The material of the object is estimated by comparing and classifying the reflection parameter obtained in this way and the reflection parameter of each material stored in the database by a known method such as SVM (Support Vector Machine).

以上の処理は、撮像装置105としてカメラを用いているが、撮像装置105は赤外線カメラ等であってもよい。   In the above processing, a camera is used as the imaging device 105, but the imaging device 105 may be an infrared camera or the like.

また、赤外域や可視光域のスペクトル画像を用いて保持対象物の材質を認識することも可能である。前者の方法は赤外分光分析(FTIR)として公知であり、後者の方法は、例えば、(「物体認識のためのスペクトル画像による材質の判別」、眞鍋佳嗣、佐藤宏介、井口征士、電子情報通信学会論文誌D-II、Vol.J79-D-II、No.1、pp.36−44、1996)等により公知である。   It is also possible to recognize the material of the holding object using a spectral image in the infrared region or visible light region. The former method is known as infrared spectroscopic analysis (FTIR), and the latter method is, for example, “(Distinction of material by spectral image for object recognition”, Yoshiaki Manabe, Kosuke Sato, Seiji Iguchi, Electronic Information Communication) Academic Journals D-II, Vol. J79-D-II, No. 1, pp. 36-44, 1996).

上述したように、本実施形態の物品保持システム12は、認識された材質に基づいて保持方法を特定する。   As described above, the article holding system 12 of this embodiment specifies a holding method based on the recognized material.

本実施形態のように保持対象物の材質を認識する物品保持システム12は、食器の保持を行うときに利用することができる。つまり、ロボット402が食事後の食器を片付けるために、各食器を食器洗い機に運搬する作業を行うとする。このときに、食器に残飯があるときにはその残飯を捨てた後に食器洗い機に投入し、食器に残飯が存在しないときにはそのまま食器洗い機に投入する作業を行う。   The article holding system 12 that recognizes the material of the holding object as in the present embodiment can be used when holding tableware. That is, it is assumed that the robot 402 performs an operation of transporting each tableware to the dishwasher in order to clean up the tableware after the meal. At this time, when there is leftovers in the tableware, the leftovers are thrown away and then put into the dishwasher, and when there is no leftovers in the tableware, they are put into the dishwasher as they are.

この食器を保持する際に、上記材質認識装置107は食器表面の材質を認識することにより、残飯の有無を判別する。具体的には、各食器に取り付けた電子タグにその食器の反射パラメータを予め記憶させておく。そうして、上述したように、実際に食器の反射パラメータを検出し、その検出パラメータと記憶パラメータとを比較する。両パラメータが同じ場合は食器上には何もないと判断することができ、両パラメータが十分に違う場合は食器上に何かが存在していると判断することができる。尚、残飯の反射パラメータを予め求めておいて、実際に検出した反射パラメータと残飯の反射パラメータとを比較してもよい。   When holding the tableware, the material recognition device 107 recognizes the material of the surface of the tableware to determine the presence or absence of leftover food. Specifically, the reflection parameter of the tableware is stored in advance in an electronic tag attached to each tableware. Then, as described above, the reflection parameter of the tableware is actually detected, and the detected parameter is compared with the storage parameter. If both parameters are the same, it can be determined that there is nothing on the tableware, and if both parameters are sufficiently different, it can be determined that something exists on the tableware. Alternatively, the reflection parameter of the leftover may be obtained in advance, and the actually detected reflection parameter may be compared with the reflection parameter of the leftover.

こうして材質認識装置107によって残飯の有無を認識したことを受けて、保持方法特定手段102はその後の処理に応じた保持方法を特定する。つまり、食器に残飯が存在しているときには、その残飯を廃棄する作業に最適な保持方法を選択する一方、残飯が存在していないときには、食器洗い機に投入する作業に最適な保持方法を選択する。   When the material recognition device 107 recognizes the presence or absence of leftover food, the holding method specifying unit 102 specifies a holding method corresponding to the subsequent processing. In other words, when leftovers are present in the tableware, the most suitable holding method is selected for the operation of discarding the remaining rices, while when there is no leftovers, the optimal holding method is selected for the operation of putting into the dishwasher. .

保持装置103は、保持方法特定手段102によって特定された保持方法に従って食器の保持を行う。   The holding device 103 holds the tableware according to the holding method specified by the holding method specifying means 102.

また、本実施形態に係る物品保持システム12は、第1実施形態でも述べたように、物品の状況に応じて保持位置(位置座標)を特定する場合にも利用可能である。つまり、料理(食品)が盛り付けられた皿を保持するときに、上記材質認識装置107が料理の反射パラメータと皿の反射パラメータとの違いを利用することによって、皿の上に置かれた料理の領域を特定することができる。その特定結果を受けて、保持方法特定手段102は、皿の全領域の内、食品領域以外の領域を保持可能領域に特定することができる。そこで、上記保持方法特定手段102は、上記認識装置101の認識結果に基づいて、保持方法の特定を行う。この特定は図30に示された(例えば、テーブル形式の)データベースを利用して行う。これは、前述の(式1)に基づいたパラメータ推定結果を利用すればよい。まず、皿の反射パラメータKdp、Ksp、σpをあらかじめ取得しておく。次に、前述の方法で、把持対象物の各点での反射パラメータを推定する。こうして推定された反射パラメータを

Figure 0004646943

とする。推定された反射パラメータが十分に皿の反射パラメータに近い場合、その点は皿の領域であると判断し、その点を保持可能領域とし保持を行なう。一方、推定された反射パラメータが皿の反射パラメータと大きく異なる場合、その点は食品領域であると判断し、保持を行なわない。 Further, as described in the first embodiment, the article holding system 12 according to the present embodiment can also be used when specifying a holding position (positional coordinates) according to the condition of the article. That is, when holding the dish on which the dish (food) is arranged, the material recognition device 107 uses the difference between the reflection parameter of the dish and the reflection parameter of the dish, so that the dish placed on the dish is displayed. An area can be specified. In response to the identification result, the holding method specifying means 102 can specify an area other than the food area in the entire area of the dish as the holdable area. Therefore, the holding method specifying unit 102 specifies the holding method based on the recognition result of the recognition device 101. This specification is performed using a database (for example, in a table format) shown in FIG. For this purpose, the parameter estimation result based on the above-described (Equation 1) may be used. First, dish reflection parameters K dp , K sp , and σ p are acquired in advance. Next, the reflection parameter at each point of the grasped object is estimated by the method described above. The estimated reflection parameter is
Figure 0004646943

And If the estimated reflection parameter is sufficiently close to the reflection parameter of the dish, the point is determined to be a dish area, and the point is held as a holdable area. On the other hand, if the estimated reflection parameter is significantly different from the reflection parameter of the dish, it is determined that the point is a food area and is not held.

さらに、本実施形態の物品保持システム12は、物品に電子タグ等が取り付けられておらず、その物品の保持方法が予め得られていないときにも有効である。例えば、保持対象物であるコップに電子タグ等が取り付けられておらず、そのコップを保持する際に必要な情報(位置(位置座標)、形状、及び姿勢情報)が得られないときには、ステレオ視やレンジファインダを利用して、認識装置101がそのコップの形状を求める。また、材質認識装置107によってコップの材質を認識する。それによって、そのコップが例えばガラス製であるか、ステンレス製であるか、紙製であるかを特定する。   Furthermore, the article holding system 12 of this embodiment is also effective when an electronic tag or the like is not attached to the article and a method for holding the article is not obtained in advance. For example, when an electronic tag or the like is not attached to a cup that is an object to be held and information (position (position coordinates), shape, and posture information) necessary for holding the cup cannot be obtained, stereo viewing is performed. Or the range finder, the recognition apparatus 101 obtains the shape of the cup. Further, the material recognition device 107 recognizes the material of the cup. Thereby, it is specified whether the cup is made of glass, stainless steel or paper, for example.

一方、図31に示すような各材質に対応する保持方法(保持する際のトルク情報を含む。)を記憶させたデータベースを、物品保持システム12に備えておき、保持方法特定手段102は、認識された材質に対応する保持方法を選択する。そうして、保持装置103は、保持方法特定手段102によって特定された保持方法に従って、コップの保持を行う。このことにより、例えばガラス製コップを保持する際にトルクを上げすぎて割ってしまったり、紙コップを保持する際に潰してしまったり、することが回避される。言い換えれば、ガラス製コップを保持する際には限界トルクTLg以下のトルクで保持するとともに、紙コップを保持する際には限界トルクTLp以下のトルクで保持することにより、上記した不具合の発生を防止する。 On the other hand, the article holding system 12 is provided with a database storing holding methods (including torque information for holding) corresponding to each material as shown in FIG. Select the holding method corresponding to the selected material. Then, the holding device 103 holds the cup according to the holding method specified by the holding method specifying means 102. Thus, for example, it is avoided that the torque is increased excessively when the glass cup is held, and that the paper cup is crushed when the paper cup is held. In other words, when holding a glass cup, it is held at a torque below the limit torque TLg , and when holding a paper cup, it is held at a torque below the limit torque TLp. To prevent.

このように、保持対象物の材質を認識することによって物品の状況が認識され、その状況に最適な保持方法でもって、保持対象物を保持することができる。   In this way, the state of the article is recognized by recognizing the material of the holding object, and the holding object can be held by a holding method optimal for the situation.

(他の実施形態)
尚、上記各実施形態では、保持装置103〜12が認識装置101を有していたが、認識装置101は、物品保持システム10〜12の外部に設けてもよい。この場合、認識装置101と物品保持システム10〜12(ロボット402)とを無線及び/又は有線のネットワークを介して互いに接続した保持システムを構成し、認識装置101による認識結果を上記ネットワークを介して保持装置に送信すればよい。
(Other embodiments)
In each of the above embodiments, the holding devices 103 to 12 have the recognition device 101, but the recognition device 101 may be provided outside the article holding system 10 to 12. In this case, a holding system in which the recognition apparatus 101 and the article holding systems 10 to 12 (robot 402) are connected to each other via a wireless and / or wired network is configured, and the recognition result by the recognition apparatus 101 is transmitted via the network. What is necessary is just to transmit to a holding | maintenance apparatus.

上記保持方法データベースなどのデータベースには、上記保持対象物として複数の異なる保持対象物に対する物品保持方法が記憶されており、上記異なる保持対象物は、物品ID情報は共通であり、形、温度、内容物、又は、水分量などの形態が異なる物品であって、その形態が変わることにより保持方法が変わるものである。上記保持対象物の形、温度、内容物、又は、水分量などの形態が異なる物品、又は、上記保持対象物の形、温度、内容物、又は、水分量などの形態が変化する物品とは、ID情報は同一であるが、電子タグを付けても変化がとれない物品であり、上記した紙と紙くず、洗う前の洗濯物と洗濯後に畳まれた洗濯物、空のコップと液体の入ったコップ、乾いた紙と濡れた紙などがある。   In the database such as the holding method database, article holding methods for a plurality of different holding objects are stored as the holding objects, and the different holding objects have the same article ID information, and the shape, temperature, It is an article having different forms such as contents or moisture content, and the holding method changes depending on the form. Articles with different forms such as the shape, temperature, contents, or moisture content of the object to be held, or articles with different forms such as the shape, temperature, contents, or moisture content of the object to be held , ID information is the same, but it is an article that cannot be changed even if it is attached with an electronic tag. The above-mentioned paper and paper waste, laundry before washing, laundry folded after washing, empty cup and liquid There are cups, dry paper and wet paper.

なお、本発明は上記実施形態に限定されるものではなく、その他種々の態様で実施できる。   In addition, this invention is not limited to the said embodiment, It can implement in another various aspect.

例えば、ロボット402は移動装置414を備えていなくても構わない。図22は、移動装置414をもたないロボットのアーム103bとハンド103aとを有する保持装置103を示している。このロボット402は、部屋の天井500や壁面に固定されており、それ自体で移動することは出来ない。このようなロボット402は、キッチンなどでの調理補助など、移動範囲が限られている場合に有効である。   For example, the robot 402 may not include the moving device 414. FIG. 22 shows a holding device 103 having a robot arm 103b and a hand 103a without a moving device 414. The robot 402 is fixed to the ceiling 500 or the wall surface of the room and cannot move by itself. Such a robot 402 is effective when the movement range is limited such as cooking assistance in a kitchen or the like.

なお、上記様々な実施形態のうちの任意の実施形態を適宜組み合わせることにより、それぞれの有する効果を奏するようにすることができる。   It is to be noted that, by appropriately combining arbitrary embodiments of the various embodiments described above, the effects possessed by them can be produced.

以上説明したように、本発明は、物品の状況を認識した上でその状況に応じた保持方法でもって保持対象物の保持を行うことによって、保持に必要となる情報を予め得ることができない場合や、状況の変化によって予め得られていた情報が役に立たなくなる場合や、予め各物品について保持に必要となる情報を設定することが困難な場合においても、多種多様な物品を最適に保持することができるから、生活空間内で利用される保持装置、家事支援ロボット及び調理補助ロボット等を含む各種ロボットに有用である。   As described above, the present invention recognizes the situation of an article and then holds the object to be held by the holding method according to the situation, so that information necessary for holding cannot be obtained in advance. Even when information obtained in advance due to changes in the situation becomes useless or when it is difficult to set information necessary for holding each item in advance, it is possible to optimally hold a wide variety of items. Therefore, it is useful for various robots including a holding device, a housework support robot, and a cooking assistance robot used in a living space.

本発明は、添付図面を参照しながら好ましい実施形態に関連して充分に記載されているが、この技術の熟練した人々にとっては種々の変形や修正は明白である。そのような変形や修正は、添付した請求の範囲による本発明の範囲から外れない限りにおいて、その中に含まれると理解されるべきである。   Although the present invention has been fully described in connection with preferred embodiments with reference to the accompanying drawings, various variations and modifications will be apparent to those skilled in the art. Such changes and modifications are to be understood as being included therein, so long as they do not depart from the scope of the present invention according to the appended claims.

本発明のこれらと他の目的と特徴は、添付された図面についての好ましい実施形態に関連した次の記述から明らかになる。
図1は、本発明の第1実施形態における物品保持システムの構成を示すブロック図である。 図2Aは、本発明の第1実施形態における物品保持システムを搭載したロボットを例示する模式図である。 図2Bは、姿勢制御を行うための上記物品保持システムの保持装置の模式図を示したものである。 図2Cは、移動装置や保持装置のモータ制御形式のアクチュエータなどの任意の駆動部の駆動制御系を示すブロック図である。 図2Dは、姿勢を制御するときに設定する座標系の説明図である。 図2Eは、保持レベルに対するαとβの方向の許容変動範囲を示したテーブルであって、データベースに記憶されたものを示す図である。 図2Fは本発明の上記第1実施形態にかかるロボットが活動する環境システムの構成を示すブロック図である。 図2Gは、物品及び移動体検索・管理手段の内部構成を概念的に示す図である。 図2Hは、物品を扱う物品データベース内に記憶されるテーブルの説明図である。 図2Iは、移動体を扱う移動体データベース内に記憶されるテーブルの説明図である。 図2Jは、環境マップデータベースの環境マップの実環境の例の説明図である。 図2Kは、環境マップデータベースの環境マップの図2Jの実環境を立体モデルで簡略化した環境マップの説明図である。 図2Lは、環境マップデータベースの環境マップの図2Jの実環境をさらに平面モデルで簡略化した環境マップの説明図である。 図2Mは、環境マップに付随する設備データベース内に記憶されるテーブルの一例を示す図である。 図3Aは、本発明の第1実施形態におけるレーザ光線を使用したセンシング装置の例を示す説明図である。 図3Bは、本発明の第1実施形態におけるレーザ光線を使用したセンシング装置の例を示す説明図である。 図4Aは、グラスについて設定された保持方法を記憶するデータベースをテーブル形式で例示する図である。 図4Bは、空のグラスを例示する図である。 図4Cは、図4Bの空のグラスを吸着ハンドで吸着する例を示す図である。 図4Dは、液体が入ったグラスを例示する図である。 図4Eは、図4Dの液体が入ったグラスを指型ハンドで把持する例を示す図である。 図5Aは、各態様の紙を保持するときの指型ハンドによって物品を上から挟む保持方法の一例を示す図である。 図5Bは、吸着ハンドによって吸着により紙を保持する状態を示す説明図である。 図5Cは、紙の束を、その厚み方向から指型ハンドによって挟む状態を示す説明図である。 図5Dは、吸着ハンドによって吸着により紙を保持する状態を示す説明図である。 図5Eは、吸着された紙の端を指型ハンドで上下から挟む状態を示す説明図である。 図5Fは、吸着ハンドの吸着を停止することで、指型ハンドによる紙の把持を実現する状態を示す説明図である。 図5Gは、図2Aに示したロボットにおける保持方法の一覧を示す図である。 図5Hは、双腕の2つの指型ハンドを利用して挟んで保持する方法を示す図である。 図5Iは、双腕の2つの指型ハンドの上に載せられた対象物を、吸着ハンドで押さえながら保持する方法を示す図である。 図6は、紙について設定された保持方法を記憶するデータベース内に記憶されるテーブルを例示する図である。 図7は、衣類について設定された保持方法を記憶するデータベース内に記憶されるテーブルを例示する図である。 図8Aは、背景差分による皿と食品の認識処理を説明するときの撮影画像の図である。 図8Bは、背景差分による皿と食品の認識処理を説明するときの料理が無いときの模様付きの皿の図である。 図8Cは、背景差分による皿と食品の認識処理を説明するときの背景差分画像の図である。 図8Dは、図8Aと同様な図であって、時刻t=tにおいて皿とその皿の上に置かれた食品の撮影画像の図である。 図8Eは、時刻t=tから一定時刻経過した時刻t=t1において再度、撮影を行っときの撮影画像の図である。 図8Fは、図8Dの撮影画像と図8Eの撮影画像との差分画像の図である。 図8Gは、タグリーダとカメラとを利用した、皿の状況の認識処理のフローチャートである。 図8Hは、保持位置候補(位置座標の候補)を示す図である。 図8Iは、保持位置候補(位置座標の候補)と食品とを示す図である。 図8Jは、差分画像を保持位置情報に重ね合わせて保持不可領域を示す図である。 図8Kは、皿の全領域の内、食品領域以外の領域を保持可能領域に特定する場合の説明図である。 図8Lは、皿の全領域の内、差分有りの領域を保持可能領域とし、差分無しの領域を保持不可領域とする場合の図である。 図9は、保持装置による皿の保持状態を示す図である。 図10は、図9に対して皿の状況が変化した状態を示す図である。 図11は、皿の状況の変化に応じて保持位置を変更した状態を示す図である。 図12Aは、フライパンの温度分布に応じた保持方法を例示する図である。 図12Bは、フライパンの温度分布に応じた保持方法を例示する図である。 図12Cは、フライパンの温度分布に応じた保持方法を例示する図である。 図12Dは、温度Tが閾値の温度ThTHより低い部分は保持可能領域であり、高い部分は保持不可領域とする場合の説明図である。 図12Eは、対象物の温度が所定の上限温度と下限温度との関係で、対象物の保持の可否が選択され、かつ、姿勢制御や移動速度が選択される場合の説明図である。 図12Fは、認識装置が物品の履歴情報や位置情報を利用する場合のテーブルの図である。 図13は、学習手段をさらに有する保持装置を示すブロック図である。 図14Aは、人が保持しているときの物品移動速度履歴を例示する図である。 図14Bは、人が保持しているときの物品移動速度履歴を例示する図である。 図15Aは、人が物品を保持している様子の一例を示す図である。 図15Bは、人が物品を保持している様子の別の例を示す図である。 図16は、本発明の第2実施形態に係る物品保持システムの構成を示すブロック図である。 図17は、Torrance-Sparrowモデルを説明するための概念図である。 図18Aは、保持対象物の位置と形状、姿勢の推定法を説明するための概念図である。 図18Bは、保持対象物の位置と形状、姿勢の推定法を説明するための概念図である。 図18Cは、保持対象物の位置と形状、姿勢の推定法を説明するための概念図である。 図18Dは、保持対象物の位置と形状、姿勢の推定法を説明するための概念図である。 図18Eは、保持対象物の位置と形状、姿勢の推定法を説明するための概念図である。 図19Aは、光源を移動させながら球状の対象物を撮影した図である。 図19Bは、光源を移動させながら球状の対象物を撮影した図である。 図19Cは、光源を移動させながら球状の対象物を撮影した図である。 図19Dは、光源を移動させながら球状の対象物を撮影した図である。 図20Aは、図19Aの画像から鏡面反射領域のみを抽出した図である。 図20Bは、図19Bの画像から鏡面反射領域のみを抽出した図である。 図20Cは、図19Cの画像から鏡面反射領域のみを抽出した図である。 図20Dは、図19Dの画像から鏡面反射領域のみを抽出した図である。 図21は、作業ロボットの制御手段の動作例を示すフローチャートである。 図22は、移動装置をもたないロボットを示す図である。 図23は、ロボットが、コンロにかけられている鍋やフライパンを、そのコンロから降ろす作業を行う場合に、物品の温度状況に応じた保持方法の特定することを説明する説明図である。 図24は、皿を1枚だけ保持するときは、指型ハンドで摘むような保持方法を選択する一方で、複数毎の皿が重ねられているときには、アームとハンドとを利用してその重ねられた皿を下から支えるような保持方法を選択する場合を説明する図である。 図25は、学習手法の1つとして、物品の移動速度に基づく保持方法の学習設定を説明するフローチャートである。 図26は、学習手段により学習された結果に基づいて各物品の保持方法をテーブル形式で設定した例を示す図である。 図27は、学習した各物品の保持方法を特定する保持レベルと各物品と対応付けるテーブルの一例を示す図である。 図28は、各物品の保持方法と保持レベルをテーブル形式で設定した例を示す図である。 図29は、単腕・双腕、二つの保持方法を場面に応じて使い分けるためのテーブルの一例を示す図である。 図30は、反射パラメータと皿の反射パラメータとの違いを利用することによって、皿の上に置かれた料理の領域を特定して皿の保持可能領域と保持不可領域とを特定する一例を示す図である。 図31は、認識された材質に対応する保持方法の一例をテーブル形式で示す図である。
These and other objects and features of the invention will become apparent from the following description taken in conjunction with the preferred embodiments with reference to the accompanying drawings.
FIG. 1 is a block diagram showing a configuration of an article holding system in the first embodiment of the present invention. FIG. 2A is a schematic view illustrating a robot equipped with the article holding system in the first embodiment of the invention. FIG. 2B is a schematic diagram of a holding device of the article holding system for performing posture control. FIG. 2C is a block diagram illustrating a drive control system of an arbitrary drive unit such as an actuator of a motor control type of a moving device or a holding device. FIG. 2D is an explanatory diagram of a coordinate system set when controlling the posture. FIG. 2E is a table showing allowable variation ranges in the directions of α and β with respect to the holding level and stored in the database. FIG. 2F is a block diagram showing a configuration of an environmental system in which the robot according to the first embodiment of the present invention is active. FIG. 2G is a diagram conceptually showing the internal configuration of the article and moving object search / management means. FIG. 2H is an explanatory diagram of a table stored in an article database that handles articles. FIG. 2I is an explanatory diagram of a table stored in a moving object database that handles moving objects. FIG. 2J is an explanatory diagram of an example of an actual environment of the environment map of the environment map database. FIG. 2K is an explanatory diagram of an environment map obtained by simplifying the real environment of FIG. 2J of the environment map of the environment map database with a three-dimensional model. FIG. 2L is an explanatory diagram of an environment map obtained by further simplifying the real environment of FIG. 2J of the environment map of the environment map database with a planar model. FIG. 2M is a diagram illustrating an example of a table stored in the facility database associated with the environment map. FIG. 3A is an explanatory diagram illustrating an example of a sensing device using a laser beam according to the first embodiment of the present invention. FIG. 3B is an explanatory diagram illustrating an example of a sensing device using a laser beam according to the first embodiment of the present invention. FIG. 4A is a diagram illustrating a database that stores a holding method set for a glass in a table format. FIG. 4B is a diagram illustrating an empty glass. FIG. 4C is a diagram illustrating an example of sucking the empty glass of FIG. 4B with a suction hand. FIG. 4D is a diagram illustrating a glass containing a liquid. FIG. 4E is a diagram illustrating an example in which the glass containing the liquid in FIG. 4D is gripped by a finger-type hand. FIG. 5A is a diagram illustrating an example of a holding method in which an article is sandwiched from above by a finger-type hand when holding the paper of each aspect. FIG. 5B is an explanatory diagram illustrating a state in which paper is held by suction using a suction hand. FIG. 5C is an explanatory diagram showing a state in which a stack of paper is pinched by a finger-type hand from the thickness direction. FIG. 5D is an explanatory diagram illustrating a state in which paper is held by suction using a suction hand. FIG. 5E is an explanatory diagram illustrating a state where the end of the sucked paper is sandwiched from above and below by a finger-type hand. FIG. 5F is an explanatory diagram illustrating a state in which the gripping of the paper by the finger type hand is realized by stopping the suction of the suction hand. FIG. 5G is a diagram showing a list of holding methods in the robot shown in FIG. 2A. FIG. 5H is a diagram showing a method of holding the two fingers with two arms. FIG. 5I is a diagram illustrating a method of holding an object placed on two finger-type hands with two arms while holding the object with a suction hand. FIG. 6 is a diagram illustrating a table stored in a database that stores the holding method set for paper. FIG. 7 is a diagram illustrating a table stored in a database that stores a holding method set for clothing. FIG. 8A is a photographed image for explaining dish and food recognition processing based on background difference. FIG. 8B is a diagram of a dish with a pattern when there is no dish when explaining the recognition processing of the dish and food by background difference. FIG. 8C is a diagram of a background difference image when explaining dish and food recognition processing based on background difference. FIG. 8D is a view similar to FIG. 8A and is a photographed image of a dish and food placed on the dish at time t = t 0 . FIG. 8E is a photographed image when photographing is performed again at time t = t 1 when a fixed time has elapsed from time t = t 0 . FIG. 8F is a diagram of a difference image between the captured image of FIG. 8D and the captured image of FIG. 8E. FIG. 8G is a flowchart of a dish status recognition process using a tag reader and a camera. FIG. 8H is a diagram illustrating holding position candidates (position coordinate candidates). FIG. 8I is a diagram illustrating holding position candidates (position coordinate candidates) and food. FIG. 8J is a diagram illustrating a non-holdable region by superimposing the difference image on the holding position information. FIG. 8K is an explanatory diagram when the region other than the food region is specified as the holdable region in the entire region of the dish. FIG. 8L is a diagram in a case where, among all the regions of the dish, a region with a difference is set as a holdable region, and a region without a difference is set as a non-holdable region. FIG. 9 is a diagram showing a holding state of the dish by the holding device. FIG. 10 is a diagram illustrating a state in which the state of the dish has changed with respect to FIG. 9. FIG. 11 is a diagram illustrating a state in which the holding position is changed in accordance with the change in the state of the dish. FIG. 12A is a diagram illustrating a holding method according to the temperature distribution of the frying pan. FIG. 12B is a diagram illustrating a holding method according to the temperature distribution of the frying pan. FIG. 12C is a diagram illustrating a holding method according to the temperature distribution of the frying pan. FIG. 12D is an explanatory diagram in a case where the portion where the temperature T is lower than the threshold temperature Th TH is a holdable region, and the high portion is a non-holdable region. FIG. 12E is an explanatory diagram in a case where whether or not to hold an object is selected and posture control and moving speed are selected in accordance with a relationship between a predetermined upper limit temperature and a lower limit temperature. FIG. 12F is a diagram of a table when the recognition apparatus uses the history information and position information of the article. FIG. 13 is a block diagram showing a holding device further having learning means. FIG. 14A is a diagram illustrating an article movement speed history when a person holds the article. FIG. 14B is a diagram illustrating an article movement speed history when a person holds the article. FIG. 15A is a diagram illustrating an example of how a person is holding an article. FIG. 15B is a diagram illustrating another example of how a person is holding an article. FIG. 16 is a block diagram showing a configuration of an article holding system according to the second embodiment of the present invention. FIG. 17 is a conceptual diagram for explaining the Torrance-Sparrow model. FIG. 18A is a conceptual diagram for explaining a method of estimating the position, shape, and orientation of a holding object. FIG. 18B is a conceptual diagram for explaining a method of estimating the position, shape, and orientation of the holding object. FIG. 18C is a conceptual diagram for explaining a method of estimating the position, shape, and orientation of the holding object. FIG. 18D is a conceptual diagram for explaining a method of estimating the position, shape, and orientation of the holding object. FIG. 18E is a conceptual diagram for explaining a method of estimating the position, shape, and orientation of the holding object. FIG. 19A is a view of a spherical object photographed while moving the light source. FIG. 19B is a diagram in which a spherical object is photographed while moving the light source. FIG. 19C is a diagram in which a spherical object is photographed while moving the light source. FIG. 19D is a view of a spherical object photographed while moving the light source. FIG. 20A is a diagram in which only the specular reflection area is extracted from the image of FIG. 19A. FIG. 20B is a diagram in which only the specular reflection area is extracted from the image of FIG. 19B. FIG. 20C is a diagram in which only the specular reflection region is extracted from the image of FIG. 19C. FIG. 20D is a diagram in which only the specular reflection area is extracted from the image of FIG. 19D. FIG. 21 is a flowchart showing an operation example of the control means of the work robot. FIG. 22 is a diagram illustrating a robot that does not have a moving device. FIG. 23 is an explanatory diagram for explaining how to specify a holding method according to the temperature state of an article when the robot performs an operation of lowering a pan or frying pan on the stove from the stove. In FIG. 24, when only one plate is held, a holding method such as picking with a finger-type hand is selected. On the other hand, when a plurality of plates are stacked, the stacking is performed using an arm and a hand. It is a figure explaining the case where the holding | maintenance method which supports the done dish from the bottom is selected. FIG. 25 is a flowchart for explaining learning setting of a holding method based on the moving speed of an article as one of learning methods. FIG. 26 is a diagram illustrating an example in which the holding method of each article is set in a table format based on the result learned by the learning unit. FIG. 27 is a diagram illustrating an example of a table that associates each article with a holding level that specifies a learned holding method for each article. FIG. 28 is a diagram showing an example in which the holding method and holding level of each article are set in a table format. FIG. 29 is a diagram showing an example of a table for properly using the single arm / double arm holding method according to the scene. FIG. 30 shows an example of specifying a dish area placed on a plate and specifying a holdable area and a non-holdable area of the dish by using the difference between the reflection parameter and the reflection parameter of the dish. FIG. FIG. 31 is a diagram illustrating an example of a holding method corresponding to a recognized material in a table format.

符号の説明Explanation of symbols

2 ロボット
10〜12 物品保持システム
101 認識手段
102 保持方法特定手段
103 保持装置
104 光源
105 撮像装置
106 学習手段
107 材質認識手段
2 Robots 10 to 12 Article holding system 101 Recognizing means 102 Holding method specifying means 103 Holding apparatus 104 Light source 105 Imaging apparatus 106 Learning means 107 Material recognition means

Claims (1)

生活空間内の物品のうちの保持対象物の状況を認識する認識装置と、
上記保持対象物の状況に応じて異なる物品保持方法を記憶する保持方法データベースと、
上記認識装置によって認識された状況に応じて、異なる物品保持方法のうちから1つの物品保持方法を特定する物品保持方法特定手段と、
上記物品保持方法特定手段によって特定された物品保持方法を参照して、上記保持対象物の保持を実行する保持装置と、を備えるとともに、
上記認識装置は、物品の移動速度又は位置を含む、人が行っている上記物品の保持動作を認識し、
上記認識装置による、上記人が行っている上記物品の保持動作の認識結果に基づいて上記物品毎の又は上記物品の状況毎の保持方法を学習設定する学習手段をさらに備え、
上記学習手段は、上記人が行っている上記物品の保持動作を参照してその物品の保持方法を学習し、学習した保持方法を上記物品に対応付けて上記保持方法データベースに記憶する、ロボット。
A recognition device for recognizing the status of an object to be held among items in the living space;
A holding method database for storing different article holding methods depending on the status of the holding object;
An article holding method specifying means for specifying one article holding method from different article holding methods according to the situation recognized by the recognition device;
A holding device that performs holding of the holding object with reference to the article holding method specified by the article holding method specifying means,
The recognition device recognizes a holding operation of the article performed by a person , including a moving speed or position of the article,
Learning means for learning and setting a holding method for each article or each situation of the article based on a recognition result of the holding operation of the article performed by the person by the recognition device;
The learning means learns a holding method of the article by referring to the holding operation of the article performed by the person, and stores the learned holding method in the holding method database in association with the article.
JP2007107039A 2004-07-13 2007-04-16 robot Active JP4646943B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007107039A JP4646943B2 (en) 2004-07-13 2007-04-16 robot

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004206032 2004-07-13
JP2007107039A JP4646943B2 (en) 2004-07-13 2007-04-16 robot

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006529087A Division JP4041837B2 (en) 2004-07-13 2005-07-13 Article holding system, robot, and robot control method

Publications (2)

Publication Number Publication Date
JP2007216381A JP2007216381A (en) 2007-08-30
JP4646943B2 true JP4646943B2 (en) 2011-03-09

Family

ID=38494169

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007107039A Active JP4646943B2 (en) 2004-07-13 2007-04-16 robot

Country Status (1)

Country Link
JP (1) JP4646943B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11192242B2 (en) 2018-05-18 2021-12-07 Toyota Jidosha Kabushiki Kaisha Holding apparatus, container provided with tag, object holding program and object holding method

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5142137B2 (en) 2007-12-10 2013-02-13 本田技研工業株式会社 Remote controller
JP2009269162A (en) * 2008-04-09 2009-11-19 Yaskawa Electric Corp Control program construction method for robot and robot system
JP5560948B2 (en) * 2010-06-23 2014-07-30 株式会社安川電機 Robot equipment
KR101778030B1 (en) * 2010-09-27 2017-09-26 삼성전자주식회사 Robot and control method thereof
JP5895420B2 (en) * 2011-09-21 2016-03-30 セイコーエプソン株式会社 Robot control device and robot system
JP6127925B2 (en) * 2013-11-11 2017-05-17 株式会社安川電機 Robot simulation apparatus, robot simulation method, and robot simulation program
JP6252597B2 (en) * 2013-11-19 2017-12-27 株式会社安川電機 Robot system
JP6415167B2 (en) * 2014-08-04 2018-10-31 キヤノン株式会社 Transport control device, transport control method, program, and transport system
WO2016152288A1 (en) * 2015-03-25 2016-09-29 ソニー株式会社 Material detection device, material detection method, and program
JP6640060B2 (en) * 2016-09-27 2020-02-05 株式会社日立製作所 Robot system
JP6771744B2 (en) * 2017-01-25 2020-10-21 株式会社安川電機 Handling system and controller
JP2019053426A (en) * 2017-09-13 2019-04-04 富士ゼロックス株式会社 Information processing device and program
JP6402266B1 (en) * 2018-02-09 2018-10-10 ユニティガードシステム株式会社 Robot movement control system and movement control method
CN110340863B (en) * 2018-04-08 2023-02-17 AIrobot株式会社 Autonomous mobile transfer robot
JP2019030738A (en) * 2018-11-08 2019-02-28 將洋 鈴木 Self-propelled vacuum cleaner and program for self-propelled vacuum cleaner
JP6920514B2 (en) * 2018-11-08 2021-08-18 將洋 鈴木 Self-propelled electric cleaners, programs and cleaning systems for self-propelled electric cleaners
JP7205752B2 (en) * 2018-11-09 2023-01-17 オムロン株式会社 ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD, AND ROBOT CONTROL PROGRAM
JP2020089944A (en) * 2018-12-05 2020-06-11 国立大学法人 東京大学 Robot system
JP7207207B2 (en) * 2019-07-09 2023-01-18 トヨタ自動車株式会社 Arithmetic device, machine learning method and control program
JP7211682B2 (en) * 2020-05-26 2023-01-27 將洋 鈴木 Self-propelled vacuum cleaner, program for self-propelled vacuum cleaner and cleaning system
JP2022090523A (en) * 2020-12-07 2022-06-17 東急建設株式会社 Robot hand, robot arm, and control system
JP7239120B1 (en) 2022-06-16 2023-03-14 株式会社アジラ Article identification system
WO2024048278A1 (en) * 2022-08-31 2024-03-07 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001051712A (en) * 1999-08-09 2001-02-23 Kawasaki Heavy Ind Ltd Method and device for teaching skill to robot
JP2001105363A (en) * 1999-08-04 2001-04-17 Yamaha Motor Co Ltd Autonomous behavior expression system for robot
JP2002174595A (en) * 2000-12-07 2002-06-21 Nippon Telegr & Teleph Corp <Ntt> Method and apparatus for identifying class of surface
JP2002245484A (en) * 2001-02-15 2002-08-30 Osaka Gas Co Ltd Behavior generation system and program for generating behavior of computer mannequin
JP2003094377A (en) * 2001-09-25 2003-04-03 Ricoh Co Ltd Hand for working robot, working robot, working robot controlling device, and external memory device storing processing program for working robot
JP2004188533A (en) * 2002-12-10 2004-07-08 Toyota Motor Corp Object handling estimating method and object handling estimating device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01205993A (en) * 1988-02-09 1989-08-18 Nec Corp Robot
JPH06250730A (en) * 1993-03-01 1994-09-09 Nissan Motor Co Ltd Teaching device for industrial robot
JPH0772076A (en) * 1993-09-02 1995-03-17 Mazda Motor Corp Deciding apparatus for work material

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001105363A (en) * 1999-08-04 2001-04-17 Yamaha Motor Co Ltd Autonomous behavior expression system for robot
JP2001051712A (en) * 1999-08-09 2001-02-23 Kawasaki Heavy Ind Ltd Method and device for teaching skill to robot
JP2002174595A (en) * 2000-12-07 2002-06-21 Nippon Telegr & Teleph Corp <Ntt> Method and apparatus for identifying class of surface
JP2002245484A (en) * 2001-02-15 2002-08-30 Osaka Gas Co Ltd Behavior generation system and program for generating behavior of computer mannequin
JP2003094377A (en) * 2001-09-25 2003-04-03 Ricoh Co Ltd Hand for working robot, working robot, working robot controlling device, and external memory device storing processing program for working robot
JP2004188533A (en) * 2002-12-10 2004-07-08 Toyota Motor Corp Object handling estimating method and object handling estimating device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11192242B2 (en) 2018-05-18 2021-12-07 Toyota Jidosha Kabushiki Kaisha Holding apparatus, container provided with tag, object holding program and object holding method

Also Published As

Publication number Publication date
JP2007216381A (en) 2007-08-30

Similar Documents

Publication Publication Date Title
JP4041837B2 (en) Article holding system, robot, and robot control method
JP4646943B2 (en) robot
JP3920317B2 (en) Goods handling robot
CN112074382B (en) Robot and method for positioning robot sensor
WO2019232806A1 (en) Navigation method, navigation system, mobile control system, and mobile robot
EP4122657A1 (en) Generating a model for an object encountered by a robot
Stückler et al. Efficient 3D object perception and grasp planning for mobile manipulation in domestic environments
CN106272424A (en) A kind of industrial robot grasping means based on monocular camera and three-dimensional force sensor
JP7057214B2 (en) Gripping device, tagged container, object gripping program and object gripping method
Stückler et al. Real-Time 3D Perception and Efficient Grasp Planning for Everyday Manipulation Tasks.
JP6042291B2 (en) Robot, robot control method, and robot control program
WO2020158060A1 (en) Object grasping system
US11642780B2 (en) Monitoring of surface touch points for precision cleaning
Seita et al. Robot bed-making: Deep transfer learning using depth sensing of deformable fabric
US20220168898A1 (en) Recovering Material Properties with Active Illumination and Camera on a Robot Manipulator
Moriya et al. A method of picking up a folded fabric product by a single-armed robot
CN115135213A (en) Cleaning robot
Costanzo et al. Enhanced 6d pose estimation for robotic fruit picking
CN115151880A (en) Robot
JP2004323135A (en) Article management system
CN113510718A (en) Intelligent meal selling robot based on machine vision and use method thereof
Nguyen et al. PPS-tags: Physical, Perceptual and Semantic tags for autonomous mobile manipulation
JP7408107B2 (en) Systems and methods for robotic systems with object handling
CA2896357A1 (en) A method and laser pointing machine system for indicating items in a display case
US20230017869A1 (en) Grasping device, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100824

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101116

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101207

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131217

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4646943

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150