JP2016206066A - Object recognition apparatus and object recognition method - Google Patents

Object recognition apparatus and object recognition method Download PDF

Info

Publication number
JP2016206066A
JP2016206066A JP2015089608A JP2015089608A JP2016206066A JP 2016206066 A JP2016206066 A JP 2016206066A JP 2015089608 A JP2015089608 A JP 2015089608A JP 2015089608 A JP2015089608 A JP 2015089608A JP 2016206066 A JP2016206066 A JP 2016206066A
Authority
JP
Japan
Prior art keywords
information
area
region
category
distance information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015089608A
Other languages
Japanese (ja)
Other versions
JP6332128B2 (en
Inventor
達 礒部
Tatsu Isobe
達 礒部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2015089608A priority Critical patent/JP6332128B2/en
Publication of JP2016206066A publication Critical patent/JP2016206066A/en
Application granted granted Critical
Publication of JP6332128B2 publication Critical patent/JP6332128B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform object recognition at high speed.SOLUTION: A plurality of regions are preset in a robot working environment. An object recognition apparatus comprises: storage means for storing an object category of each set region, identification information of an object belonging to the object category, and shape information of the object in association with one another; distance information acquisition means for acquiring distance information of an object to be recognized; region specification means for specifying a region where an object is present; candidate detection means for detecting an object in a region on the basis of the distance information of an object acquired by the distance information acquisition means; and recognition means for recognizing an object candidate detected by the candidate detection means, with use of the information stored in the storage means, by comparing with the shape information of an object belonging to the object category of the region specified by the region specification means.SELECTED DRAWING: Figure 3

Description

本発明は、ロボットの作業環境内の物体を認識する物体認識装置、及び物体認識方法に関するものである。   The present invention relates to an object recognition device and an object recognition method for recognizing an object in a work environment of a robot.

作業環境内に存在する物体の形状情報を取得し、該取得した形状情報と、予め記憶する形状情報などと、を照合することで、物体を認識する物体認識装置が知られている(特許文献1参照)。   There is known an object recognition device that recognizes an object by acquiring shape information of an object existing in a work environment and collating the acquired shape information with shape information stored in advance (Patent Literature). 1).

特開2010−060451号公報JP 2010-060451 A

作業環境内に存在する対象物体を物体候補とし、この物体候補の形状情報を取得し照合を行っている。このため、照合を行う物体候補の数が多くなると物体認識に多くの時間を要することとなる。   The target object existing in the work environment is set as an object candidate, and the shape information of the object candidate is acquired and collated. For this reason, as the number of object candidates to be collated increases, it takes much time for object recognition.

本発明は、このような問題点を解決するためになされたものであり、物体認識を高速で行うことができる物体認識装置、及び物体認識方法を提供することを主たる目的とする。   The present invention has been made to solve such problems, and has as its main object to provide an object recognition apparatus and an object recognition method capable of performing object recognition at high speed.

上記目的を達成するための本発明の一態様は、ロボットの作業環境内に複数の領域が予め設定され、該各領域内の物体を認識する物体認識装置であって、前記設定された各領域の物体カテゴリと、該物体カテゴリに属する物体の識別情報と、該物体の形状情報と、を夫々対応付けて記憶する記憶手段と、認識対象の物体の距離情報を取得する距離情報取得手段と、前記物体が存在する領域を特定する領域特定手段と、前記距離情報取得手段により取得された物体の距離情報に基づいて、前記領域内の物体を物体候補として検出する候補検出手段と、前記候補検出手段により検出された物体候補を、前記記憶手段により記憶された情報を用いて、前記領域特定手段により特定された領域の物体カテゴリに属する物体の形状情報と比較することにより認識する認識手段と、を備える、ことを特徴とする物体認識装置である。
この一態様において、前記認識手段は、前記候補検出手段により検出された物体候補を、前記領域特定手段により特定された領域の物体カテゴリに属する物体の形状情報と比較し、その後、該領域の物体カテゴリに属しない物体の形状情報と比較することにより認識してもよい。
この一態様において、前記記憶手段は、前記設定された領域と、前記距離情報を取得する際のロボットの位置情報と、を対応付けて記憶しており、前記距離情報取得手段が、前記領域に対応する位置で前記認識対象の物体の距離情報を取得してもよい。
この一態様において、前記作業環境内の領域には、該領域の位置を示す目印情報が設定されており、前記領域特定手段は、前記目印情報に基づいて、前記領域を特定してもよい。
上記目的を達成するための本発明の一態様は、ロボットの作業環境内に複数の領域が予め設定され、該各領域内の物体を認識する物体認識方法であって、前記設定された各領域の物体カテゴリと、該物体カテゴリに属する物体の識別情報と、該物体の形状情報と、を夫々対応付けて記憶するステップと、認識対象の物体の距離情報を取得するステップと、
前記物体が存在する領域を特定するステップと、前記取得された物体の距離情報に基づいて、前記領域内の物体を物体候補として検出するステップと、前記検出された物体候補を、前記記憶された情報を用いて、前記特定された領域の物体カテゴリに属する物体の形状情報と比較することにより認識するステップと、を含む、ことを特徴とする物体認識方法であってもよい。
One aspect of the present invention for achieving the above object is an object recognition apparatus in which a plurality of areas are set in advance in a robot work environment and recognize objects in the respective areas. Storage means for storing the object category, identification information of the object belonging to the object category, and shape information of the object in association with each other, distance information acquisition means for acquiring distance information of the object to be recognized, Area specifying means for specifying an area where the object exists, candidate detection means for detecting an object in the area as an object candidate based on distance information of the object acquired by the distance information acquiring means, and candidate detection The object candidate detected by the means is compared with the shape information of the object belonging to the object category of the area specified by the area specifying means using the information stored by the storage means. Ri comprises recognizing means for recognizing, and it is an object recognition apparatus according to claim.
In this aspect, the recognizing unit compares the object candidate detected by the candidate detecting unit with the shape information of the object belonging to the object category of the region specified by the region specifying unit, and then the object in the region You may recognize by comparing with the shape information of the object which does not belong to a category.
In this aspect, the storage unit stores the set area and the position information of the robot when the distance information is acquired in association with each other, and the distance information acquisition unit stores the distance information in the area. You may acquire the distance information of the said recognition target object in a corresponding position.
In this aspect, mark information indicating a position of the area is set in the area in the work environment, and the area specifying unit may specify the area based on the mark information.
One aspect of the present invention for achieving the above object is an object recognition method in which a plurality of areas are set in advance in a work environment of a robot, and an object in each area is recognized. Storing the object category, the identification information of the object belonging to the object category, and the shape information of the object in association with each other, obtaining the distance information of the object to be recognized,
Identifying a region where the object exists, detecting an object in the region as an object candidate based on the acquired distance information of the object, and storing the detected object candidate And a step of recognizing the information by comparing it with shape information of an object belonging to the object category of the specified region using the information.

本発明によれば、物体認識を高速で行うことができる物体認識装置、及び物体認識方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the object recognition apparatus and object recognition method which can perform object recognition at high speed can be provided.

実施形態に係るロボットの概略的な構成を示す斜視図である。1 is a perspective view illustrating a schematic configuration of a robot according to an embodiment. 実施形態に係るロボットの概略的なシステム構成を示すブロック図である。1 is a block diagram illustrating a schematic system configuration of a robot according to an embodiment. 実施形態に係る物体認識装置の概略的なシステム構成を示すブロック図である。1 is a block diagram illustrating a schematic system configuration of an object recognition apparatus according to an embodiment. 作業環境内に設定された各領域の一例を示す図である。It is a figure which shows an example of each area | region set in the work environment. テーブル情報の一例を示す図である。It is a figure which shows an example of table information. 作業環境内の各領域に設定された目印情報の一例を示す図である。It is a figure which shows an example of the mark information set to each area | region in a work environment. 実施形態に係る物体認識方法の処理フローの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow of the object recognition method which concerns on embodiment.

以下、図面を参照して本発明の実施の形態について説明する。図1は、本発明の一実施形態に係るロボットの概略的な構成を示す斜視図である。本実施形態に係るロボット1は、例えば、自律的に作業を行う自律型作業ロボットとして構成されている。本実施形態に係る物体認識装置は、上述したような自律型作業ロボットに搭載され、物体を認識する。
図2は、本発明の一実施形態に係るロボットの概略的なシステム構成を示すブロック図である。本実施形態に係るロボット1は、ロボット本体2と、ロボット本体2を移動させる移動装置3と、物体を把持し移動させる把持操作装置4と、移動装置3及び把持操作装置4を制御する制御装置5と、距離センサ6と、物体認識装置7と、を備えている。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a perspective view showing a schematic configuration of a robot according to an embodiment of the present invention. The robot 1 according to the present embodiment is configured as an autonomous work robot that performs work autonomously, for example. The object recognition apparatus according to the present embodiment is mounted on the autonomous work robot as described above and recognizes an object.
FIG. 2 is a block diagram showing a schematic system configuration of the robot according to the embodiment of the present invention. The robot 1 according to this embodiment includes a robot body 2, a moving device 3 that moves the robot body 2, a gripping operation device 4 that grips and moves an object, and a control device that controls the moving device 3 and the gripping operation device 4. 5, a distance sensor 6, and an object recognition device 7.

移動装置3は、制御装置5からの制御信号に応じて、例えば、モータなどを駆動させることで複数の車輪を回転させ、ロボット本体2を所望の位置に移動させる。
把持操作装置4は、例えば、物体を把持する把持部41と、手首関節、肘関節、肩関節などの関節部42を介して連結される複数のリンク43と、各関節部42を駆動するモータなどの複数のアクチュエータと、からなる多関節型アームとして構成されている。
The moving device 3 rotates a plurality of wheels by driving a motor or the like, for example, according to a control signal from the control device 5, and moves the robot body 2 to a desired position.
The gripping operation device 4 includes, for example, a gripping part 41 that grips an object, a plurality of links 43 that are connected via joint parts 42 such as a wrist joint, an elbow joint, and a shoulder joint, and a motor that drives each joint part 42. It is comprised as an articulated arm which consists of a plurality of actuators.

制御装置5は、操作端末8を介して入力された操作信号に基づいて移動装置3及び把持操作装置4を制御することで、ロボット1に作業を実行させる。操作端末8は、例えば、タブレット端末、PC(PersonalComputer)、スマートフォンなどの携帯端末である。操作端末8にはタッチパネルやメカニカルスイッチが設けられている。ユーザは、これらタッチパネルやメカニカルスイッチなどを操作することで、ロボット1を操作するための操作情報を操作端末8に入力することができる。なお、操作端末8にはマイクが設けられ、マイクを介して操作情報が操作端末8に入力されてもよい。   The control device 5 causes the robot 1 to perform work by controlling the moving device 3 and the gripping operation device 4 based on the operation signal input via the operation terminal 8. The operation terminal 8 is a portable terminal such as a tablet terminal, a PC (Personal Computer), or a smartphone. The operation terminal 8 is provided with a touch panel and a mechanical switch. The user can input operation information for operating the robot 1 to the operation terminal 8 by operating these touch panels and mechanical switches. The operation terminal 8 may be provided with a microphone, and operation information may be input to the operation terminal 8 through the microphone.

操作端末8と制御装置5は、無線あるいは有線で通信接続されており、相互にデータの送受信を行う。操作端末8は、ユーザにより入力された作業情報に応じた操作信号を制御装置5に出力する。なお、操作情報は、操作端末8を介さずに、ロボット1に直接的に入力されてもよい。   The operation terminal 8 and the control device 5 are connected by wireless or wired communication, and exchange data with each other. The operation terminal 8 outputs an operation signal corresponding to the work information input by the user to the control device 5. The operation information may be directly input to the robot 1 without using the operation terminal 8.

制御装置5及び物体認識装置7は、例えば、演算処理等を行うCPU(Central Processing Unit)5a、7a、CPU5a、7aによって実行される演算プログラム等が記憶されたROM(Read Only Memory)やRAM(Random Access Memory)からなるメモリ5b、7b、外部と信号の入出力を行うインターフェイス部(I/F)5c、7cなどからなるマイクロコンピュータを中心にして、ハードウェア構成されている。CPU5a、7aメモリ5b、7b及びインターフェイス部5c、7cは、データバスなどを介して相互に接続されている。   The control device 5 and the object recognition device 7 are, for example, a CPU (Central Processing Unit) 5a, 7a that performs arithmetic processing or the like, a ROM (Read Only Memory) or a RAM (RAM) that stores arithmetic programs executed by the CPUs 5a, 7a, and the like. Random Access Memory (Random Access Memory) is composed of memories 5b and 7b, and a microcomputer composed of interface units (I / F) 5c and 7c for inputting / outputting signals to / from the outside. The CPU 5a, 7a memories 5b, 7b and the interface units 5c, 7c are connected to each other via a data bus or the like.

距離センサ6は、作業環境内にある物体の距離情報を検出する。距離センサ6は、例えば、ロボット1の頭部などに搭載されているが、これに限られない。距離センサ6は、ロボット1が動作する作業環境内(例えば、壁や天井)に設置されていてもよい。これにより、ロボット1を移動させることなく、広い視野で物体の距離情報を検出することができる。したがって、後述の作業環境内の領域の特定を高速に行うことができる。   The distance sensor 6 detects distance information of an object in the work environment. For example, the distance sensor 6 is mounted on the head of the robot 1 or the like, but is not limited thereto. The distance sensor 6 may be installed in a work environment (for example, a wall or a ceiling) in which the robot 1 operates. Thereby, it is possible to detect the distance information of the object with a wide field of view without moving the robot 1. Therefore, it is possible to specify an area in the work environment described later at high speed.

距離センサ6は、ロボット1及び動作環境内に複数設けられていてもよい。距離センサ6は、例えば、カメラ(RGB−Dカメラ、ステレオカメラ)、レーザレンジファインダ、超音波センサ、3次元距離センサなどのセンサである。   A plurality of distance sensors 6 may be provided in the robot 1 and the operating environment. The distance sensor 6 is a sensor such as a camera (RGB-D camera, stereo camera), a laser range finder, an ultrasonic sensor, or a three-dimensional distance sensor.

ところで、ロボットの作業環境内には多種多様の物体が存在し、その位置及び姿勢も多種多様である。従来は、このような多種多様の物体を物体候補とし、この物体候補の形状情報を取得し、予め設定された形状情報と照合を行って、各物体の認識を行っている。このため、照合を行う物体候補の数が多くなると物体認識に多くの時間を要するとう問題が生じることとなる。   By the way, there are various objects in the work environment of the robot, and their positions and postures are also various. Conventionally, such a wide variety of objects are used as object candidates, shape information of the object candidates is acquired, and each object is recognized by collating with preset shape information. For this reason, when the number of object candidates to be collated increases, there arises a problem that much time is required for object recognition.

これに対して、本実施形態に係る物体認識装置7は、前記設定された各領域の物体カテゴリと、該物体カテゴリに属する物体の識別情報と、該物体の形状情報と、を夫々対応付けて記憶し、物体の距離情報に基づいて、特定された領域内の物体を物体候補として検出し、検出された物体候補を、記憶されたテーブル情報を用いて、特定された領域の物体カテゴリに属する物体の形状情報と比較することにより認識する。   On the other hand, the object recognition device 7 according to the present embodiment associates the set object category of each region, the identification information of the object belonging to the object category, and the shape information of the object. Based on the distance information of the object, the object in the specified area is detected as an object candidate, and the detected object candidate belongs to the object category of the specified area using the stored table information It recognizes by comparing with the shape information of the object.

これにより、特定された各領域内で検出された物体候補は、その領域の物体カテゴリに属することが推定できる。したがって、各領域内に絞り込んで検出された物体候補をその各領域の物体カテゴリの物体情報と照合するだけで、容易に認識できる。すなわち、物体認識を高速で行うことができる。また、誤認識を低減することができるため、各物体の位置、姿勢の推定精度も向上させることができる。   Thereby, it can be estimated that the object candidate detected in each specified area belongs to the object category of the area. Therefore, it is possible to easily recognize object candidates detected by narrowing down within each area by simply collating with object information of the object category of each area. That is, object recognition can be performed at high speed. Moreover, since misrecognition can be reduced, the estimation accuracy of the position and orientation of each object can also be improved.

図3は、本実施形態に係る物体認識装置の概略的なシステム構成を示すブロック図である。本実施形態に係る物体認識装置7は、距離情報取得部71と、記憶部72と、領域特定部73と、候補検出部74と、物体認識部75と、を備えている。   FIG. 3 is a block diagram illustrating a schematic system configuration of the object recognition apparatus according to the present embodiment. The object recognition device 7 according to the present embodiment includes a distance information acquisition unit 71, a storage unit 72, a region specifying unit 73, a candidate detection unit 74, and an object recognition unit 75.

距離情報取得部71は、距離情報取得手段の一具体例である。距離情報取得部71は、距離センサ6を用いて、物体の距離情報(画像情報を含む)を取得する。なお、距離情報とは、例えば、距離センサ6の視野(又はスキャン範囲)にある物体のセンサの座標系から見た位置情報(x、y、z)によって取得されるものである。また、距離情報は、単眼カメラなどによって取得されるなどの、公知の手法により取得される。距離情報取得部71は、取得した物体の距離情報を制御装置5、領域特定部73、候補検出部74、及び物体認識部75に出力する。   The distance information acquisition unit 71 is a specific example of a distance information acquisition unit. The distance information acquisition unit 71 uses the distance sensor 6 to acquire object distance information (including image information). The distance information is acquired by position information (x, y, z) of an object in the field of view (or scan range) of the distance sensor 6 viewed from the coordinate system of the sensor, for example. The distance information is acquired by a known method such as acquisition by a monocular camera. The distance information acquisition unit 71 outputs the acquired distance information of the object to the control device 5, the region specifying unit 73, the candidate detection unit 74, and the object recognition unit 75.

記憶部72は、記憶手段の一具体例である。記憶部72は、例えば、メモリ7bで構成されている。ロボット1の作業環境内には、複数の領域が予め設定されている。作業環境内には、例えば、図4に示す如く、テーブル上に皿を置くための皿領域と、グラスを置くためのグラス領域と、廃棄物を置くための廃棄物領域と、が設定されている。記憶部72は、例えば、設定された各領域の物体カテゴリと、該物体カテゴリに属する物体の識別情報と、該物体の形状情報を含み、該物体に対して作業を行うのに必要な物体情報と、を夫々対応付けたテーブル情報を記憶している。   The storage unit 72 is a specific example of storage means. The memory | storage part 72 is comprised by the memory 7b, for example. A plurality of areas are set in advance in the work environment of the robot 1. In the work environment, for example, as shown in FIG. 4, a dish area for placing a dish on a table, a glass area for placing glass, and a waste area for placing waste are set. Yes. The storage unit 72 includes, for example, the object category of each set area, the identification information of the object belonging to the object category, and the shape information of the object, and object information necessary for performing work on the object Are stored in table information in association with each other.

物体情報は、例えば、物体の形状情報(サイズ、重量、形状、特徴など)、物体の位置姿勢、物体の把持方法、物体の把持位置、物体に対する把持力、物体に対する作業内容、などの物体に対して作業を行うのに必要な情報を含む。   Object information includes, for example, object shape information (size, weight, shape, features, etc.), object position and orientation, object gripping method, object gripping position, object gripping force, work content for the object, etc. It contains the information necessary to work on it.

記憶部72は、例えば、図5に示す如く、各領域(皿領域、グラス領域、廃棄物領域)の物体カテゴリ(皿カテゴリ、グラスカテゴリ、廃棄物カテゴリ)と、該各物体カテゴリに属する各物体(大皿、小皿、角皿、ジョッキ、グラス小、廃棄物一般)に対する物体情報と、を夫々対応付けたテーブル情報を記憶している。
記憶部72に記憶されたテーブル情報は、例えば、操作端末8などを介して、ユーザが任意に設定、及び変更できるように構成されている。
For example, as shown in FIG. 5, the storage unit 72 stores object categories (dish category, glass category, waste category) of each area (dish area, glass area, waste area) and each object belonging to each object category. Table information in which object information for (large plate, small plate, square plate, mug, small glass, waste in general) is associated with each other is stored.
The table information stored in the storage unit 72 is configured such that the user can arbitrarily set and change the information via the operation terminal 8 or the like, for example.

領域特定部73は、領域特定手段の一具体例である。領域特定部73は、距離情報取得部71により取得された距離情報と、記憶部72に予め記憶された環境地図情報と、に基づいて、物体が位置する各領域を特定する。環境地図情報は、ロボット1が作業を行う作業環境内の地図(障害物や移動路の位置情報)を示す情報である。環境地図情報には、上述した複数の領域が予め設定されている。なお、図4及び図5に示す一例では、テーブル上の各領域及び物体カテゴリについて説明しているが、これに限定されない。例えば、床、デスク、ローテーブルなどの任意の対象物について、各領域及び物体カテゴリが設定されてもよい。   The area specifying unit 73 is a specific example of the area specifying means. The area specifying unit 73 specifies each area where the object is located based on the distance information acquired by the distance information acquiring unit 71 and the environmental map information stored in advance in the storage unit 72. The environment map information is information indicating a map (position information of obstacles and moving paths) in the work environment where the robot 1 performs work. In the environmental map information, the plurality of areas described above are set in advance. In the example illustrated in FIGS. 4 and 5, each region and object category on the table is described, but the present invention is not limited to this. For example, each region and object category may be set for an arbitrary object such as a floor, a desk, or a low table.

テーブル情報の物体情報は、各領域に対応して、認識対象の物体の距離情報を取得するのに最適なロボット1の位置を含んでいてもよい。ここで、最適なロボット1の位置とは、例えば、物体がテーブル上に置かれている場合、テーブル全体が見渡せて、物体になるべく近くなる位置、や物体の認識精度が安定する位置である。距離情報取得部71が距離情報を取得する際に、制御装置5は、上記テーブル情報の物体情報に基づいて移動装置3を制御し、各領域に対応した最適な位置にロボット1を移動させる。これにより、距離情報取得部71が各領域の物体の距離情報を取得する際の、ロボット1の位置が領域毎に一定となる。このため、物体の照明条件の変化が小さくなり、物体の認識精度が向上する。
なお、記憶部72に記憶された環境地図情報の各領域は、例えば、操作端末8などを介して、ユーザが任意に設定、及び変更できるように構成されている。
The object information of the table information may include the position of the robot 1 that is optimal for acquiring the distance information of the recognition target object corresponding to each region. Here, the optimal position of the robot 1 is, for example, a position where the entire table can be looked over as close as possible to the object when the object is placed on the table, or a position where the recognition accuracy of the object is stable. When the distance information acquisition unit 71 acquires the distance information, the control device 5 controls the moving device 3 based on the object information of the table information, and moves the robot 1 to the optimal position corresponding to each region. Thereby, the position of the robot 1 when the distance information acquisition unit 71 acquires the distance information of the object in each area is constant for each area. For this reason, the change of the illumination condition of an object becomes small and the recognition accuracy of an object improves.
In addition, each area | region of the environmental map information memorize | stored in the memory | storage part 72 is comprised so that a user can arbitrarily set and change via the operation terminal 8 etc., for example.

領域特定部73は、距離情報取得部71により取得された各領域の画像情報に基づいて、各領域を特定してもよい。この画像情報は、例えば、各領域を区画するラインや塗分けなどの可視化した情報や各領域に設けられたマーカ(識別子)などの各領域の位置を示す目印情報である。(図6)。領域特定部73は、距離情報取得部71により取得された画像情報に基づいて、マーカを認識し、該マーカから所定形状(四角形状、円形状など)範囲を領域として特定することができる。これにより、領域特定部73は、容易に各領域を特定することができ、物体認識の時間をより短縮することができる。   The area specifying unit 73 may specify each area based on the image information of each area acquired by the distance information acquiring unit 71. This image information is, for example, mark information indicating the position of each region, such as visualized information such as lines that divide each region, coloring, and markers (identifiers) provided in each region. (FIG. 6). The area specifying unit 73 can recognize a marker based on the image information acquired by the distance information acquiring unit 71, and can specify a predetermined shape (rectangular, circular, etc.) range from the marker as an area. Thereby, the area specifying unit 73 can easily specify each area, and the time for object recognition can be further shortened.

候補検出部74は、候補検出手段の一具体例である。候補検出部74は、距離情報取得部71により取得された物体の距離情報に基づいて、領域特定部73により特定された各領域内の各物体を物体候補として検出する。例えば、候補検出部74は、距離情報取得部71により取得された物体の距離情報に基づいて、テーブルを平面と仮定し、その平面から突出している部分を物体として切り出す。そして、候補検出部74は、切り出した物体の図芯の位置を算出し、該図芯の位置が各領域内にあるか否かを判断することで、物体候補を検出する。候補検出部74は、検出した物体候補を物体認識部75に出力する。   The candidate detection unit 74 is a specific example of candidate detection means. The candidate detection unit 74 detects each object in each region specified by the region specifying unit 73 as an object candidate based on the distance information of the object acquired by the distance information acquisition unit 71. For example, based on the distance information of the object acquired by the distance information acquisition unit 71, the candidate detection unit 74 assumes that the table is a plane and cuts out a portion protruding from the plane as an object. Then, the candidate detecting unit 74 detects the object candidate by calculating the position of the centroid of the clipped object and determining whether the position of the centroid is within each region. The candidate detection unit 74 outputs the detected object candidate to the object recognition unit 75.

物体認識部75は、認識手段の一具体例である。物体認識部75は、候補検出部74により検出された物体候補を、記憶部72により記憶されたテーブル情報を用いて、領域特定部73により特定された領域の物体カテゴリに属する物体の形状情報と比較することにより認識する。   The object recognition unit 75 is a specific example of a recognition unit. The object recognizing unit 75 uses the object information detected by the candidate detecting unit 74 and the shape information of the objects belonging to the object category of the area specified by the area specifying unit 73 using the table information stored in the storage unit 72. Recognize by comparing.

例えば、物体認識部75は、距離情報取得部71により取得された物体の距離情報に基づいて、候補検出部74により検出された物体候補の特徴量を算出する。そして、物体認識部75は、算出した物体候補の特徴量と、予め記憶部72に記憶された、領域特定部73により特定された領域の物体カテゴリに属する物体の特徴量のモデル情報(形状情報)と、を照合(パターンパッチング)することで、その物体候補を認識する。   For example, the object recognition unit 75 calculates the feature amount of the object candidate detected by the candidate detection unit 74 based on the distance information of the object acquired by the distance information acquisition unit 71. Then, the object recognizing unit 75 calculates the model information (shape information) of the calculated feature amount of the object candidate and the feature amount of the object belonging to the object category of the area specified by the area specifying unit 73 stored in the storage unit 72 in advance. ), And the object candidate is recognized.

通常、各物体は各領域に仕分けされ、各領域内に各領域の物体カテゴリに属する物体が配置されている。しかし、各領域内に各領域の物体カテゴリに属さない物体が紛れ込むことも想定される。   Normally, each object is sorted into each area, and objects belonging to the object category of each area are arranged in each area. However, it is assumed that an object that does not belong to the object category of each area is mixed in each area.

これに対し、物体認識部75は、候補検出部74により検出された物体候補を、領域特定部73により特定された領域の物体カテゴリに属する物体の形状情報と比較し、その後、該領域の物体カテゴリに属しない物体の形状情報と比較することにより認識する。これにより、各領域の物体カテゴリに属さない物体(各領域に仕分けられていない物体など)についても必要に応じて認識することができる。   On the other hand, the object recognizing unit 75 compares the object candidate detected by the candidate detecting unit 74 with the shape information of the object belonging to the object category of the area specified by the area specifying unit 73, and then the object in the area It recognizes by comparing with the shape information of the object which does not belong to a category. As a result, an object that does not belong to the object category of each area (such as an object that is not sorted into each area) can be recognized as necessary.

図7は本実施形態に係る物体認識方法の処理フローの一例を示すフローチャートである。
ユーザが、操作端末8を介して、記憶部72の環境地図情報に各領域(例えば、テーブル上にに、皿領域、グラス領域、廃棄物領域など)を設定する(ステップS101)。ユーザが、操作端末8を介して、記憶部72のテーブル情報の各領域に対して物体カテゴリ、該物体カテゴリに属する物体、及びその物体情報を設定する(ステップS102)。
FIG. 7 is a flowchart illustrating an example of a processing flow of the object recognition method according to the present embodiment.
The user sets each area (for example, a dish area, a glass area, a waste area, etc. on the table) in the environmental map information in the storage unit 72 via the operation terminal 8 (step S101). The user sets the object category, the object belonging to the object category, and the object information for each area of the table information in the storage unit 72 via the operation terminal 8 (step S102).

ユーザは、操作端末8を介して、制御装置5に対して、ロボット1の作業指示(例えば、作業位置(リビングのテーブル)及び作業内容(片付け作業))を行う(ステップS103)。制御装置5は、操作端末8からの作業指示の操作信号に応じて、距離情報取得部71により取得された距離情報と、記憶部72に予め記憶された環境地図情報と、に基づいて、移動装置3を制御し、ロボット1を作業位置に移動させる。   The user gives a work instruction (for example, work position (living table) and work content (cleaning work)) of the robot 1 to the control device 5 via the operation terminal 8 (step S103). The control device 5 moves based on the distance information acquired by the distance information acquisition unit 71 and the environmental map information stored in advance in the storage unit 72 according to the operation signal of the work instruction from the operation terminal 8. The apparatus 3 is controlled to move the robot 1 to the work position.

距離情報取得部71は、作業位置の画像情報を取得し(ステップS104)、領域特定部73、候補検出部74、及び物体認識部75に出力する。
領域特定部73は、距離情報取得部71により取得された画像情報に基づいて、作業位置の各領域を特定する(ステップS105)。
The distance information acquisition unit 71 acquires the image information of the work position (step S104), and outputs it to the region specifying unit 73, the candidate detection unit 74, and the object recognition unit 75.
The area specifying unit 73 specifies each area of the work position based on the image information acquired by the distance information acquiring unit 71 (step S105).

候補検出部74は、距離情報取得部71により取得された物体の距離情報に基づいて、領域特定部73により特定された各領域内の各物体を物体候補として検出する(ステップS106)。   The candidate detecting unit 74 detects each object in each region specified by the region specifying unit 73 as an object candidate based on the distance information of the object acquired by the distance information acquiring unit 71 (step S106).

物体認識部75は、距離情報取得部71により取得された物体の距離情報と、記憶部72のテーブル情報と、に基づいて、候補検出部74により検出された各領域内の各物体候補を夫々認識する(ステップS107)。制御装置5は、例えば、物体認識部75により認識された物体と、記憶部72のテーブル情報と、に基づいて、ロボット1の移動装置3及び把持操作装置4を制御し、作業を実行する。この場合、物体認識部75による物体の認識に併せて、制御装置5は、その記憶部72に記憶された物体の物体情報(形状情報など)を用いてロボット1の制約条件を加味し、作業(単腕で把持可能、現状の能力で把持可能)の可否を判断できる。したがって、ロボット1の作業能力を効率的に引き出すことができる。   The object recognizing unit 75 selects each object candidate in each region detected by the candidate detecting unit 74 based on the distance information of the object acquired by the distance information acquiring unit 71 and the table information in the storage unit 72. Recognize (step S107). For example, the control device 5 controls the moving device 3 and the gripping operation device 4 of the robot 1 based on the object recognized by the object recognition unit 75 and the table information in the storage unit 72, and executes the work. In this case, along with the recognition of the object by the object recognition unit 75, the control device 5 uses the object information (shape information, etc.) of the object stored in the storage unit 72 in consideration of the constraints of the robot 1, It can be determined whether or not it can be held with a single arm and can be held with the current ability. Therefore, the working ability of the robot 1 can be efficiently extracted.

以上、本実施形態に係る物体認識装置7において、記憶部72に設定された各領域の物体カテゴリと、該物体カテゴリに属する物体の識別情報と、該物体の形状情報を含み該物体に対して作業を行うのに必要な物体情報と、を夫々対応付けたテーブル情報を記憶する。領域特定部73は、物体が存在する領域を特定する。候補検出部74は、距離情報取得部71により取得された物体の距離情報に基づいて、領域内の物体を物体候補として検出する。物体認識部75は、記憶部72により記憶されたテーブル情報を用いて候補検出部74により検出された物体候補を、領域特定部73により特定された領域の物体カテゴリに属する物体の形状情報と比較することにより認識する。これにより、特定された各領域内で検出された物体候補は、その領域の物体カテゴリに属することが推定できる。したがって、各領域内に絞り込んで検出された物体候補をその各領域の物体カテゴリの物体情報と照合するだけで、容易に認識できる。すなわち、物体認識を高速で行うことができる。   As described above, in the object recognition apparatus 7 according to the present embodiment, the object category of each region set in the storage unit 72, the identification information of the object belonging to the object category, and the shape information of the object Table information in which object information necessary for performing work is associated with each other is stored. The area specifying unit 73 specifies an area where the object exists. The candidate detection unit 74 detects an object in the region as an object candidate based on the distance information of the object acquired by the distance information acquisition unit 71. The object recognition unit 75 compares the object candidate detected by the candidate detection unit 74 using the table information stored in the storage unit 72 with the shape information of the object belonging to the object category of the area specified by the area specifying unit 73. To recognize. Thereby, it can be estimated that the object candidate detected in each specified area belongs to the object category of the area. Therefore, it is possible to easily recognize object candidates detected by narrowing down within each area by simply collating with object information of the object category of each area. That is, object recognition can be performed at high speed.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
また、本発明は、例えば、図7に示す処理を、CPU7aにコンピュータプログラムを実行させることにより実現することも可能である。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。
また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention.
Further, the present invention can be realized by causing the CPU 7a to execute a computer program, for example, the processing shown in FIG.
The program may be stored using various types of non-transitory computer readable media and supplied to a computer. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W and semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (random access memory)) are included.
The program may also be supplied to the computer by various types of transitory computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

1 ロボット、2 ロボット本体、3 移動装置、4 把持操作装置、5 制御装置、6 距離センサ、7 物体認識装置、8 操作端末   DESCRIPTION OF SYMBOLS 1 Robot, 2 Robot main body, 3 Moving apparatus, 4 Grip operation apparatus, 5 Control apparatus, 6 Distance sensor, 7 Object recognition apparatus, 8 Operation terminal

Claims (5)

ロボットの作業環境内に複数の領域が予め設定され、該各領域内の物体を認識する物体認識装置であって、
前記設定された各領域の物体カテゴリと、該物体カテゴリに属する物体の識別情報と、該物体の形状情報と、を夫々対応付けて記憶する記憶手段と、
認識対象の物体の距離情報を取得する距離情報取得手段と、
前記物体が存在する領域を特定する領域特定手段と、
前記距離情報取得手段により取得された物体の距離情報に基づいて、前記領域内の物体を物体候補として検出する候補検出手段と、
前記候補検出手段により検出された物体候補を、前記記憶手段により記憶された情報を用いて、前記領域特定手段により特定された領域の物体カテゴリに属する物体の形状情報と比較することにより認識する認識手段と、
を備える、ことを特徴とする物体認識装置。
A plurality of areas are set in advance in the work environment of the robot, and an object recognition device for recognizing an object in each area,
Storage means for storing the object category of each set region, identification information of an object belonging to the object category, and shape information of the object in association with each other;
Distance information acquisition means for acquiring distance information of an object to be recognized;
Area specifying means for specifying an area in which the object exists;
Candidate detection means for detecting an object in the region as an object candidate based on distance information of the object acquired by the distance information acquisition means;
Recognition by recognizing the object candidate detected by the candidate detection means by using the information stored in the storage means and comparing it with the shape information of the object belonging to the object category of the area specified by the area specifying means. Means,
An object recognition apparatus comprising:
請求項1記載の物体認識装置であって、
前記認識手段は、前記候補検出手段により検出された物体候補を、前記領域特定手段により特定された領域の物体カテゴリに属する物体の形状情報と比較し、その後、該領域の物体カテゴリに属しない物体の形状情報と比較することにより認識する、
ことを特徴とする物体認識装置。
The object recognition device according to claim 1,
The recognizing unit compares the object candidate detected by the candidate detecting unit with the shape information of the object belonging to the object category of the region specified by the region specifying unit, and then the object not belonging to the object category of the region Recognize by comparing with the shape information of
An object recognition apparatus characterized by that.
請求項1又は2記載の物体認識装置であって、
前記記憶手段は、前記設定された領域と、前記距離情報を取得する際のロボットの位置情報と、を対応付けて記憶しており、
前記距離情報取得手段が、前記領域に対応する位置で前記認識対象の物体の距離情報を取得する、
ことを特徴とする物体認識装置。
The object recognition device according to claim 1 or 2,
The storage means stores the set area and the position information of the robot at the time of acquiring the distance information in association with each other,
The distance information acquisition means acquires distance information of the recognition target object at a position corresponding to the region;
An object recognition apparatus characterized by that.
請求項1乃至3のうちのいずれか1項記載の物体認識装置であって、
前記作業環境内の領域には、該領域の位置を示す目印情報が設定されており、
前記領域特定手段は、前記目印情報に基づいて、前記領域を特定する、
ことを特徴とする物体認識装置。
The object recognition device according to any one of claims 1 to 3,
In the area within the work environment, mark information indicating the position of the area is set,
The area specifying means specifies the area based on the landmark information.
An object recognition apparatus characterized by that.
ロボットの作業環境内に複数の領域が予め設定され、該各領域内の物体を認識する物体認識方法であって、
前記設定された各領域の物体カテゴリと、該物体カテゴリに属する物体の識別情報と、該物体の形状情報と、を夫々対応付けて記憶するステップと、
認識対象の物体の距離情報を取得するステップと、
前記物体が存在する領域を特定するステップと、
前記取得された物体の距離情報に基づいて、前記領域内の物体を物体候補として検出するステップと、
前記検出された物体候補を、前記記憶された情報を用いて、前記特定された領域の物体カテゴリに属する物体の形状情報と比較することにより認識するステップと、
を含む、ことを特徴とする物体認識方法。
A plurality of areas are set in advance in the work environment of the robot, and an object recognition method for recognizing an object in each area,
Storing the object category of each set region, identification information of an object belonging to the object category, and shape information of the object in association with each other;
Obtaining distance information of an object to be recognized;
Identifying a region where the object is present;
Detecting an object in the region as an object candidate based on the acquired distance information of the object;
Recognizing the detected object candidate by comparing it with shape information of an object belonging to the object category of the identified region using the stored information;
An object recognition method comprising:
JP2015089608A 2015-04-24 2015-04-24 Object recognition apparatus and object recognition method Active JP6332128B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015089608A JP6332128B2 (en) 2015-04-24 2015-04-24 Object recognition apparatus and object recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015089608A JP6332128B2 (en) 2015-04-24 2015-04-24 Object recognition apparatus and object recognition method

Publications (2)

Publication Number Publication Date
JP2016206066A true JP2016206066A (en) 2016-12-08
JP6332128B2 JP6332128B2 (en) 2018-05-30

Family

ID=57487328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015089608A Active JP6332128B2 (en) 2015-04-24 2015-04-24 Object recognition apparatus and object recognition method

Country Status (1)

Country Link
JP (1) JP6332128B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018140859A (en) * 2017-02-28 2018-09-13 日本電気株式会社 Inspection apparatus, inspection method, and program
CN112639361A (en) * 2018-08-23 2021-04-09 荏原环境工程株式会社 Information processing apparatus, information processing program, and information processing method
JP7424348B2 (en) 2021-05-31 2024-01-30 セイコーエプソン株式会社 Detection method and detection system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021117999A1 (en) * 2019-12-10 2021-06-17 한국로봇융합연구원 Spinal control mobile robot using rgb-d cameras

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005088143A (en) * 2003-09-18 2005-04-07 National Institute Of Advanced Industrial & Technology Object processing system, object processing method and robot
US20090028389A1 (en) * 2006-11-28 2009-01-29 Fujitsu Limited Image recognition method
JP2010060451A (en) * 2008-09-04 2010-03-18 Toyota Motor Corp Robotic apparatus and method for estimating position and attitude of object
JP2013069100A (en) * 2011-09-22 2013-04-18 Dainippon Screen Mfg Co Ltd Three-dimensional position/posture recognition device, industrial robot, three-dimensional position/posture recognition method, program and storing medium
JP2014215219A (en) * 2013-04-26 2014-11-17 本田技研工業株式会社 Quality determination apparatus and quality determination method
JP2015520040A (en) * 2012-06-21 2015-07-16 リシンク ロボティクス インコーポレイテッド Training and operating industrial robots

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005088143A (en) * 2003-09-18 2005-04-07 National Institute Of Advanced Industrial & Technology Object processing system, object processing method and robot
US20090028389A1 (en) * 2006-11-28 2009-01-29 Fujitsu Limited Image recognition method
JP2010060451A (en) * 2008-09-04 2010-03-18 Toyota Motor Corp Robotic apparatus and method for estimating position and attitude of object
JP2013069100A (en) * 2011-09-22 2013-04-18 Dainippon Screen Mfg Co Ltd Three-dimensional position/posture recognition device, industrial robot, three-dimensional position/posture recognition method, program and storing medium
JP2015520040A (en) * 2012-06-21 2015-07-16 リシンク ロボティクス インコーポレイテッド Training and operating industrial robots
JP2014215219A (en) * 2013-04-26 2014-11-17 本田技研工業株式会社 Quality determination apparatus and quality determination method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018140859A (en) * 2017-02-28 2018-09-13 日本電気株式会社 Inspection apparatus, inspection method, and program
CN112639361A (en) * 2018-08-23 2021-04-09 荏原环境工程株式会社 Information processing apparatus, information processing program, and information processing method
CN112639361B (en) * 2018-08-23 2023-12-15 荏原环境工程株式会社 Information processing apparatus, recording medium, and information processing method
JP7424348B2 (en) 2021-05-31 2024-01-30 セイコーエプソン株式会社 Detection method and detection system

Also Published As

Publication number Publication date
JP6332128B2 (en) 2018-05-30

Similar Documents

Publication Publication Date Title
JP6332128B2 (en) Object recognition apparatus and object recognition method
JP2019523664A5 (en)
CN107756398B (en) Robot vision guiding method, device and equipment
CN205043784U (en) Multifunctional machine ware people that can independently remove
JP4822926B2 (en) Method, program and system for estimating three-dimensional position of radio transmitter
ES2759082T3 (en) Portable device to control a robot and its method
US20120239193A1 (en) Motion path search device and method of searching for motion path
US20190184569A1 (en) Robot based on artificial intelligence, and control method thereof
JP2017504494A (en) Robot control
US20170361466A1 (en) Vision-based robot control system
JP2011150443A (en) Robot and robot system
JP2015215651A (en) Robot and own position estimation method
KR101415297B1 (en) A method for creating a robot map and using robot map and robot having robot map
SE1750308A1 (en) A vehicle with a crane with object detecting device
JP6134894B2 (en) Robot control system and robot
KR20130099667A (en) Device and method for estimating location of mobile robot using raiser scanner and structure
US11141866B2 (en) Grasping apparatus, grasping determination method and grasping determination program
JP2019084641A (en) Autonomous mobile robot, and control device and operation control program of the same
KR20140034996A (en) Mobile robot and method for teaching a moving path of mobile robot
CN113126600A (en) Follow system and article transfer cart based on UWB
KR100919944B1 (en) Map Creation system and Map Creation Method of Mobile Robot
WO2021033509A1 (en) Information processing device, information processing method, and program
JP2022023342A (en) Control system, control method and control program
JP2015024453A (en) Loading determination method, loading method, loading determination device and robot
CN103984499A (en) Action command control method and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180416

R151 Written notification of patent or utility model registration

Ref document number: 6332128

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151