JP2015169515A - Posture estimation system, program and posture estimation method - Google Patents

Posture estimation system, program and posture estimation method Download PDF

Info

Publication number
JP2015169515A
JP2015169515A JP2014043863A JP2014043863A JP2015169515A JP 2015169515 A JP2015169515 A JP 2015169515A JP 2014043863 A JP2014043863 A JP 2014043863A JP 2014043863 A JP2014043863 A JP 2014043863A JP 2015169515 A JP2015169515 A JP 2015169515A
Authority
JP
Japan
Prior art keywords
information
unit
reference object
generation information
appearance generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014043863A
Other languages
Japanese (ja)
Other versions
JP6265784B2 (en
Inventor
基康 田中
Motoyasu Tanaka
基康 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2014043863A priority Critical patent/JP6265784B2/en
Publication of JP2015169515A publication Critical patent/JP2015169515A/en
Application granted granted Critical
Publication of JP6265784B2 publication Critical patent/JP6265784B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide posture estimation technology which can be simply acquired.SOLUTION: A controller 2 of a posture estimation system is provided with: a measurement part 26 which acquires three-dimensional shape information 211 corresponding to one measurement direction of a reference object 7 by measuring the reference object 7 from the one measurement direction; a pseudo-image creation part 201 which creates two-dimensional image information 212 by grasping the reference object 7 in a pseudo manner from observation directions for each of a plurality of mutually different observation directions based on the three-dimensional shape information 211 acquired by the measurement part 26; a model creation part 202 which creates appearance generation information 213 by using the two-dimensional image information 212 created by the pseudo-image creation part 201 as a learning material; a storage device 21 which preliminarily stores the appearance generation information 213 created by the model creation part 202; and an estimation part 203 which estimates a posture of an object 8 to be represented by the reference object 7 based on a picked-up image 311 obtained by imaging the object 8, and the appearance generation information 213.

Description

本発明は、産業用ロボットなどにおいてワークの姿勢を推定する技術に関する。   The present invention relates to a technique for estimating the posture of a workpiece in an industrial robot or the like.

従来より、自動車製造工場の生産ラインなどで使用される産業用ロボットにおいては、特定の工程を精密かつ高速に実行することが求められていた。一方で、従来の産業用ロボットでは、ティーチングという作業によって多くの時間をかけて特定の工程を教え込む必要があった。例えば、特許文献1には、対象物(ワーク)の姿勢を推定する工程のために、精密なCADデータを用いる技術が記載されている。従来の産業用ロボットは、このようにして教え込んだ特定の工程を、可能な限り「高速に」、「失敗なく」実行することが求められていた。   Conventionally, an industrial robot used in a production line of an automobile manufacturing factory has been required to execute a specific process precisely and at high speed. On the other hand, in the conventional industrial robot, it is necessary to teach a specific process by taking a lot of time by the work of teaching. For example, Patent Document 1 describes a technique using precise CAD data for a process of estimating the posture of an object (workpiece). Conventional industrial robots have been required to execute a specific process taught in this way as “fast” and “without failure” as much as possible.

これに対して、昨今、人間の作業を代替する「セル型」ロボットが注目されつつある。セル型ロボットは、従来の産業用ロボットと異なり、従事する作業が頻繁に変更されることを前提としており、短時間で各作業を習得する必要がある。また、ある程度の失敗を許容する代わりに、失敗を学習し、復帰することが求められる。   On the other hand, recently, “cell type” robots that replace human work are attracting attention. Unlike conventional industrial robots, cell-type robots are based on the premise that the work to be engaged is frequently changed, and it is necessary to learn each work in a short time. Also, instead of allowing a certain amount of failure, it is required to learn the failure and return.

特開平09−167234号公報JP 09-167234 A

ところが、特許文献1に記載されている技術をセル型ロボットに適用してワークの姿勢を推定させようとすると、短時間で作業を習得することが困難であり、多品種のワークに対する様々な作業工程に柔軟に対応することができなくなるという問題があった。   However, if the technique described in Patent Document 1 is applied to a cell-type robot to try to estimate the posture of a work, it is difficult to learn the work in a short time, and various works for various types of work There was a problem that the process could not be handled flexibly.

本発明は、上記課題に鑑みてなされたものであり、簡易に習得することのできる姿勢推定技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide a posture estimation technique that can be easily learned.

上記の課題を解決するため、請求項1の発明は、姿勢推定システムであって、一の計測方向から基準物体を測定することにより前記基準物体の前記一の計測方向に対応する三次元形状情報を取得する計測手段と、前記計測手段により取得された三次元形状情報に基づいて、前記基準物体を観測方向から擬似的に捉えた二次元画像情報を、互いに異なる複数の前記観測方向のそれぞれについて作成する疑似画像作成手段と、前記疑似画像作成手段により作成された二次元画像情報を学習素材として見え方生成情報を作成するモデル作成手段と、前記モデル作成手段により作成された見え方生成情報を予め記憶する記憶手段と、前記基準物体によって代表される物体を撮像して撮像画像を取得する撮像手段と、前記記憶手段により記憶された見え方生成情報と前記撮像手段により取得された撮像画像とに基づいて、前記物体の姿勢を推定する推定手段とを備える。   In order to solve the above problems, the invention of claim 1 is a posture estimation system, wherein three-dimensional shape information corresponding to the one measurement direction of the reference object is measured by measuring the reference object from one measurement direction. And two-dimensional image information obtained by simulating the reference object from the observation direction based on the three-dimensional shape information acquired by the measurement unit, for each of a plurality of different observation directions. Pseudo image creating means for creating, model creating means for creating appearance generation information using the two-dimensional image information created by the pseudo image creating means as learning material, and appearance generating information created by the model creating means. Storage means for storing in advance, imaging means for capturing an image represented by the object represented by the reference object, and appearance stored by the storage means Based on the obtained captured image and generates data by the imaging means, and a estimating means for estimating a pose of the object.

また、請求項2の発明は、請求項1の発明に係る姿勢推定システムであって、前記推定手段による推定結果の適否を判定する判定手段をさらに備え、前記モデル作成手段は、前記判定手段による判定結果に応じて、新たな見え方生成情報を作成する姿勢推定システム。   The invention of claim 2 is the posture estimation system according to the invention of claim 1, further comprising determination means for determining the suitability of the estimation result by the estimation means, wherein the model creation means is based on the determination means A posture estimation system that creates new appearance generation information according to the determination result.

また、請求項3の発明は、請求項2の発明に係る姿勢推定システムであって、前記物体を把持する把持手段をさらに備え、前記判定手段は、前記把持手段により前記物体を把持することができたか否かに応じて、前記推定結果の適否を判定する。   The invention of claim 3 is the posture estimation system according to the invention of claim 2, further comprising gripping means for gripping the object, wherein the determination means grips the object by the gripping means. Whether or not the estimation result is appropriate is determined depending on whether or not it has been completed.

また、請求項4の発明は、請求項2または3の発明に係る姿勢推定システムであって、前記モデル作成手段により作成された複数の見え方生成情報のそれぞれに重み付けを行う評価手段をさらに備え、前記推定手段は、前記評価手段による重み付けに応じて、前記複数の見え方生成情報の中から推定に用いる見え方生成情報を選択する。   The invention of claim 4 is the posture estimation system according to the invention of claim 2 or 3, further comprising an evaluation means for weighting each of the plurality of appearance generation information created by the model creation means. The estimation unit selects appearance generation information used for estimation from the plurality of appearance generation information according to the weighting by the evaluation unit.

また、請求項5の発明は、請求項4の発明に係る姿勢推定システムであって、前記評価手段は、前記判定手段による判定結果に応じて前記重み付けを行う。   The invention of claim 5 is the posture estimation system according to the invention of claim 4, wherein the evaluation means performs the weighting according to a determination result by the determination means.

また、請求項6の発明は、コンピュータ読み取り可能なプログラムであって、前記コンピュータによって実行されることにより、前記コンピュータを、一の計測方向から基準物体を測定することにより前記基準物体の前記一の計測方向に対応する三次元形状情報を取得する計測手段と、前記計測手段により取得された三次元形状情報に基づいて、前記基準物体を観測方向から擬似的に捉えた二次元画像情報を、互いに異なる複数の前記観測方向のそれぞれについて作成する疑似画像作成手段と、前記疑似画像作成手段により作成された二次元画像情報を学習素材として見え方生成情報を作成するモデル作成手段と、前記モデル作成手段により作成された見え方生成情報を予め記憶する記憶手段と、前記基準物体によって代表される物体を撮像して撮像画像を取得する撮像手段と、前記記憶手段により記憶された見え方生成情報と前記撮像手段により取得された撮像画像とに基づいて、前記物体の姿勢を推定する推定手段とを備える姿勢推定システムとして機能させる。   According to a sixth aspect of the present invention, there is provided a computer-readable program that is executed by the computer so that the computer measures the reference object from one measurement direction, thereby measuring the one of the reference objects. Measurement means for acquiring three-dimensional shape information corresponding to the measurement direction, and two-dimensional image information obtained by simulating the reference object from the observation direction based on the three-dimensional shape information acquired by the measurement means, A pseudo image creating means for creating each of a plurality of different observation directions, a model creating means for creating appearance generation information using the two-dimensional image information created by the pseudo image creating means as a learning material, and the model creating means Storage means for storing in advance the appearance generation information created by, and imaging an object represented by the reference object Posture estimation comprising: imaging means for acquiring a captured image; and estimation means for estimating the posture of the object based on the appearance generation information stored in the storage means and the captured image acquired by the imaging means Make it function as a system.

また、請求項7の発明は、姿勢推定方法であって、一の計測方向から基準物体を測定することにより前記基準物体の前記一の計測方向に対応する三次元形状情報を取得する工程と、取得された前記三次元形状情報に基づいて、前記基準物体を観測方向から擬似的に捉えた二次元画像情報を、互いに異なる複数の前記観測方向のそれぞれについて作成する工程と、作成された前記二次元画像情報を学習素材として見え方生成情報を作成する工程と、作成された前記見え方生成情報を予め記憶手段に記憶する工程と、前記基準物体によって代表される物体を撮像して撮像画像を取得する工程と、前記記憶手段により記憶された見え方生成情報と取得された撮像画像とに基づいて、前記物体の姿勢を推定する工程とを有する。   The invention of claim 7 is a posture estimation method, the step of acquiring three-dimensional shape information corresponding to the one measurement direction of the reference object by measuring the reference object from one measurement direction; Based on the acquired three-dimensional shape information, a step of creating two-dimensional image information obtained by simulating the reference object from an observation direction for each of a plurality of different observation directions, and the created two A step of creating appearance generation information using dimensional image information as a learning material, a step of previously storing the generated appearance generation information in a storage unit, and an image represented by the reference object. A step of acquiring, and a step of estimating the posture of the object based on the appearance generation information stored by the storage unit and the acquired captured image.

請求項1ないし7に記載の発明は、一の計測方向から基準物体を測定することにより当該基準物体の前記一の計測方向に対応する三次元形状情報を取得し、取得された三次元形状情報に基づいて、当該基準物体を観測方向から擬似的に捉えた二次元画像情報を、互いに異なる複数の観測方向のそれぞれについて作成し、作成された二次元画像情報を学習素材として見え方生成情報を作成し、当該基準物体によって代表される物体を撮像して撮像画像を取得し、当該見え方生成情報と取得された撮像画像とに基づいて、当該物体の姿勢を推定ことにより、正確な三次元形状情報がなくても、簡単な計測で物体の姿勢を推定できる。したがって、姿勢を推定する技術を簡易に習得することができる。   According to the first to seventh aspects of the present invention, three-dimensional shape information corresponding to the one measurement direction of the reference object is acquired by measuring the reference object from one measurement direction, and the acquired three-dimensional shape information Based on the above, two-dimensional image information that captures the reference object from the observation direction is created for each of a plurality of different observation directions, and the generated two-dimensional image information is used as learning material to generate appearance generation information. Create and capture a captured image by capturing an object represented by the reference object, and estimate the posture of the object based on the appearance generation information and the acquired captured image. Even without shape information, the posture of an object can be estimated by simple measurement. Therefore, the technique for estimating the posture can be easily learned.

実施の形態における姿勢推定システムを示す図である。It is a figure which shows the attitude | position estimation system in embodiment. 制御装置のブロック図である。It is a block diagram of a control apparatus. 制御装置が備える機能ブロックをデータの流れとともに示す図である。It is a figure which shows the functional block with which a control apparatus is provided with the flow of data. 運搬ロボットのブロック図である。It is a block diagram of a conveyance robot. 運搬ロボットが備える機能ブロックをデータの流れとともに示す図である。It is a figure which shows the functional block with which a conveyance robot is provided with the flow of data. 姿勢推定方法における、主に制御装置において実行される工程を示す流れ図である。It is a flowchart which shows the process mainly performed in a control apparatus in an attitude | position estimation method. 姿勢推定方法における、主に制御装置において実行される工程を示す流れ図である。It is a flowchart which shows the process mainly performed in a control apparatus in an attitude | position estimation method. 姿勢推定方法における、主に制御装置において実行される工程を示す流れ図である。It is a flowchart which shows the process mainly performed in a control apparatus in an attitude | position estimation method. 姿勢推定方法における、主に運搬ロボットにおいて実行される工程を示す流れ図である。It is a flowchart which shows the process mainly performed in the conveyance robot in a posture estimation method. 姿勢推定方法における、主に運搬ロボットにおいて実行される工程を示す流れ図である。It is a flowchart which shows the process mainly performed in the conveyance robot in a posture estimation method.

以下、本発明の好適な実施の形態について、添付の図面を参照しつつ、詳細に説明する。ただし、以下の説明において特に断らない限り、方向や向きに関する記述は、当該説明の便宜上、図面に対応するものであり、例えば実施品、製品または権利範囲等を限定するものではない。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings. However, unless otherwise specified in the following description, descriptions of directions and orientations correspond to the drawings for the convenience of the description, and do not limit, for example, a product, a product, or a scope of rights.

<1. 実施の形態>
図1は、姿勢推定システム1を示す図である。姿勢推定システム1は、制御装置2および運搬ロボット3とを備えている。
<1. Embodiment>
FIG. 1 is a diagram showing a posture estimation system 1. The posture estimation system 1 includes a control device 2 and a transport robot 3.

基準物体7は、計測に用いる基準となる物体であり、図1に示すように、ここではミニカーを例に挙げる。また、物体8は、基準物体7によって代表される物体(ワーク)であり、運搬ロボット3による作業の対象となる物体である。基準物体7と物体8とは必ずしも同一の物体である必要はない。例えば、素材や物性は異なってもよい。また、基準物体7と物体8とは同一形状かつ同一配色の物体であることが好ましい。しかし、両者の間に外観上の多少の違いがあっても許容される場合がある。すなわち、基準物体7と物体8は、外観において物理的な完全同一までは要求されない。なお、図1において、物体8が載置される台(ベルトコンベアや作業台など)は省略している。   The reference object 7 is a reference object used for measurement, and as shown in FIG. 1, here, a minicar is taken as an example. The object 8 is an object (work) represented by the reference object 7 and is an object to be worked by the transport robot 3. The reference object 7 and the object 8 are not necessarily the same object. For example, the materials and physical properties may be different. The reference object 7 and the object 8 are preferably objects having the same shape and the same color scheme. However, a slight difference in appearance between the two may be permitted. That is, the reference object 7 and the object 8 are not required to be physically identical in appearance. In FIG. 1, a table (belt conveyor, work table, etc.) on which the object 8 is placed is omitted.

また、ネットワーク9は、製造工場内に敷設された構内LANであるが、特に構内LANに限定されるものではない。ネットワーク9は、インターネットや公衆網、WANなどであってもよい。   The network 9 is a local LAN laid in the manufacturing factory, but is not particularly limited to the local LAN. The network 9 may be the Internet, a public network, a WAN, or the like.

図2は、制御装置2のブロック図である。制御装置2は、CPU20、記憶装置21、操作部22、表示部23、計測台24、ステッピングモータ25、計測部26および通信部27を備える。詳細は後述するが、制御装置2は、ネットワーク9を介して運搬ロボット3を制御する機能を有している。   FIG. 2 is a block diagram of the control device 2. The control device 2 includes a CPU 20, a storage device 21, an operation unit 22, a display unit 23, a measurement table 24, a stepping motor 25, a measurement unit 26, and a communication unit 27. Although details will be described later, the control device 2 has a function of controlling the transport robot 3 via the network 9.

CPU20は、記憶装置21に格納されているプログラム210を読み取りつつ実行し、各種データの演算や制御信号の生成等を行う。これにより、CPU20は、制御装置2が備える各構成を制御するとともに、各種データを演算し作成する機能を有している。すなわち、制御装置2は、一般的なコンピュータとして構成されている。なお、CPU20によって実現される機能については後述する。   The CPU 20 reads and executes the program 210 stored in the storage device 21, and performs various data calculations, control signal generation, and the like. Thereby, CPU20 has the function which calculates and produces various data while controlling each structure with which the control apparatus 2 is provided. That is, the control device 2 is configured as a general computer. The functions realized by the CPU 20 will be described later.

記憶装置21は、制御装置2において各種データを記憶する機能を提供する。言い換えれば、記憶装置21が制御装置2において電子的に固定された情報を保存する。   The storage device 21 provides a function of storing various data in the control device 2. In other words, the storage device 21 stores information electronically fixed in the control device 2.

記憶装置21としては、CPU20の一時的なワーキングエリアとして使用されるRAMやバッファ、読み取り専用のROM、不揮発性のメモリ(例えばNANDメモリなど)、比較的大容量のデータを記憶するハードディスク、専用の読み取り装置に装着された可搬性の記憶媒体(CD−ROM、PCカード、SDカード、USBメモリなど)等が該当する。図2においては、記憶装置21を、あたかも1つの構造物であるかのように図示している。しかし、通常、記憶装置21は、上記例示した各種装置(あるいは媒体)のうち、必要に応じて採用される複数種類の装置から構成されるものである。すなわち、記憶装置21は、データを記憶する機能を有する装置群の総称である。   As the storage device 21, a RAM or buffer used as a temporary working area of the CPU 20, a read-only ROM, a non-volatile memory (such as a NAND memory), a hard disk for storing a relatively large amount of data, a dedicated memory A portable storage medium (a CD-ROM, a PC card, an SD card, a USB memory, or the like) mounted on the reading device is applicable. In FIG. 2, the storage device 21 is illustrated as if it were one structure. However, the storage device 21 is usually composed of a plurality of types of devices that are employed as necessary among the various devices (or media) exemplified above. That is, the storage device 21 is a generic name for a group of devices having a function of storing data.

また、現実のCPU20は高速にアクセス可能なRAMを内部に備えた電子回路である。しかし、このようなCPU20が備える記憶装置も、説明の都合上、記憶装置21に含めて説明する。すなわち、以下の説明では、一時的にCPU20自体が記憶するデータも、記憶装置21が記憶するとして説明する。図2に示すように、記憶装置21は、プログラム210、三次元形状情報211、二次元画像情報212および見え方生成情報213等を記憶するために使用される。   The actual CPU 20 is an electronic circuit provided with a RAM that can be accessed at high speed. However, the storage device included in the CPU 20 is also included in the storage device 21 for convenience of explanation. That is, in the following description, it is assumed that the storage device 21 also stores data temporarily stored by the CPU 20 itself. As shown in FIG. 2, the storage device 21 is used to store a program 210, three-dimensional shape information 211, two-dimensional image information 212, appearance generation information 213, and the like.

三次元形状情報211は、計測部26によって作成される情報である。三次元形状情報211は、一の計測方向から基準物体7を捉えた情報であって、一の計測方向に限定されているとはいえ、当該基準物体7を三次元で表現した情報である。姿勢推定システム1では、制御装置2は、基準物体7の全周にわたる三次元の情報は取得しない。   The three-dimensional shape information 211 is information created by the measurement unit 26. The three-dimensional shape information 211 is information that captures the reference object 7 from one measurement direction, and is information that represents the reference object 7 in three dimensions although it is limited to one measurement direction. In the posture estimation system 1, the control device 2 does not acquire three-dimensional information over the entire circumference of the reference object 7.

二次元画像情報212は、計測部26により取得された三次元形状情報211に基づいて作成される複数の画像情報である。二次元画像情報212のそれぞれは識別番号と、画像情報と、観測方向とを含んでいる。すなわち、二次元画像情報212において、識別情報と、画像情報と、観測方向とが互いに関連づけられている。なお、「観測方向」とは、対応する画像情報に関する、視点からの方向(視線方向)である。   The two-dimensional image information 212 is a plurality of pieces of image information created based on the three-dimensional shape information 211 acquired by the measurement unit 26. Each of the two-dimensional image information 212 includes an identification number, image information, and an observation direction. That is, in the two-dimensional image information 212, the identification information, the image information, and the observation direction are associated with each other. The “observation direction” is the direction (line-of-sight direction) from the viewpoint regarding the corresponding image information.

二次元画像情報212に格納される画像情報は、基準物体7を観測方向から擬似的に捉えた二次元の画像情報である。複数の二次元画像情報212は、互いに異なる複数の観測方向のそれぞれについて作成されている。すなわち、1つ(1回の計測)の三次元形状情報211から、複数の画像情報が作成される。そして、これらの複数の画像情報は、観測方向をずらしながら基準物体7を捉えた画像情報である。以下、1つ(1回の計測)の三次元形状情報211から作成される一連の画像情報を、「1セットの画像情報」と呼ぶ場合がある。   The image information stored in the two-dimensional image information 212 is two-dimensional image information obtained by simulating the reference object 7 from the observation direction. The plurality of two-dimensional image information 212 is created for each of a plurality of different observation directions. That is, a plurality of pieces of image information are created from one (one measurement) three-dimensional shape information 211. These pieces of image information are image information obtained by capturing the reference object 7 while shifting the observation direction. Hereinafter, a series of image information created from one (one measurement) three-dimensional shape information 211 may be referred to as “one set of image information”.

なお、見え方生成情報213については、後述する。   The appearance generation information 213 will be described later.

操作部22は、制御装置2に対してオペレータ等が指示を入力するために操作するハードウエアである。操作部22としては、例えば、各種キーやボタン類、スイッチ、タッチパネル、ポインティングデバイス、あるいは、ジョグダイヤルなどが該当する。   The operation unit 22 is hardware that an operator or the like operates to input instructions to the control device 2. Examples of the operation unit 22 include various keys and buttons, a switch, a touch panel, a pointing device, and a jog dial.

表示部23は、各種データを表示することによりオペレータ等に対して出力する機能を有するハードウェアである。表示部23としては、例えば、ランプやLED、CRT、液晶ディスプレイや液晶パネルなどが該当する。   The display unit 23 is hardware having a function of outputting various data to an operator or the like. Examples of the display unit 23 include a lamp, LED, CRT, liquid crystal display, and liquid crystal panel.

計測台24は、計測部26によって基準物体7を計測する際に、当該基準物体7を載置するために設けられている台である。計測台24は、基準物体7が載置される載置板240を備えている。載置板240はステッピングモータ25からの駆動力により回転させることが可能である。   The measurement table 24 is a table provided for placing the reference object 7 when the measurement unit 26 measures the reference object 7. The measurement table 24 includes a placement plate 240 on which the reference object 7 is placed. The mounting plate 240 can be rotated by a driving force from the stepping motor 25.

ステッピングモータ25は、計測台24の載置板240を水平面内で回転させる機能を有している。なお、ステッピングモータ25は、CPU20からの制御信号により、回転方向および回転角(回転量)を制御することが可能である。これにより、制御装置2は、計測部26に対する基準物体7の向きを調整し、計測部26がどの方向から基準物体7を計測するのかを決定する。   The stepping motor 25 has a function of rotating the mounting plate 240 of the measurement table 24 within a horizontal plane. Note that the stepping motor 25 can control the rotation direction and the rotation angle (rotation amount) by a control signal from the CPU 20. Accordingly, the control device 2 adjusts the orientation of the reference object 7 with respect to the measurement unit 26 and determines from which direction the measurement unit 26 measures the reference object 7.

計測部26は、いわゆる三次元ビジョンセンサであり、計測方向から被写体を計測することにより、被写体の輝度や色だけでなく、距離(計測部26からの距離)も計測できる装置である。計測部26は、計測台24の載置板241上に載置された基準物体7を計測して、三次元形状情報211を作成する。すなわち、計測部26は、一の計測方向から基準物体7を測定することにより基準物体7の当該一の計測方向に対応する三次元形状情報211を取得する。計測部26による対象物(基準物体7)の計測の方式等については、従来より様々な方式のものが提案されているが、ここでは詳細な説明を省略する。   The measurement unit 26 is a so-called three-dimensional vision sensor, and is a device that can measure not only the luminance and color of the subject but also the distance (distance from the measurement unit 26) by measuring the subject from the measurement direction. The measurement unit 26 measures the reference object 7 placed on the placement plate 241 of the measurement table 24 and creates three-dimensional shape information 211. That is, the measuring unit 26 acquires the three-dimensional shape information 211 corresponding to the one measurement direction of the reference object 7 by measuring the reference object 7 from the one measurement direction. Various methods for measuring the object (reference object 7) by the measuring unit 26 have been proposed in the past, but detailed description thereof is omitted here.

通信部27は、制御装置2をネットワーク9にデータ通信が可能な状態で接続する機能を提供する。これにより、制御装置2は、ネットワーク9を介して、運搬ロボット3との間でデータ通信を行うことができる。   The communication unit 27 provides a function of connecting the control device 2 to the network 9 in a state where data communication is possible. Thereby, the control device 2 can perform data communication with the transport robot 3 via the network 9.

図3は、制御装置2が備える機能ブロックをデータの流れとともに示す図である。図3に示す計測制御部200、疑似画像作成部201、モデル作成部202、推定部203および評価部204は、CPU20がプログラム210に従って動作することにより実現される機能ブロックである。   FIG. 3 is a diagram illustrating functional blocks included in the control device 2 together with a data flow. The measurement control unit 200, the pseudo image creation unit 201, the model creation unit 202, the estimation unit 203, and the evaluation unit 204 illustrated in FIG. 3 are functional blocks that are realized by the CPU 20 operating according to the program 210.

計測制御部200は、操作部22からの指示または評価情報215に応じて、計測部26を制御して、計測部26に基準物体7の計測を実行させる。また、計測制御部200は、計測部26による計測に先立って、ステッピングモータ25を制御し、載置板240を回転させる。これにより、基準物体7の計測部26に対する向き(すなわち、基準物体7の計測方向)が決定される。   The measurement control unit 200 controls the measurement unit 26 according to the instruction from the operation unit 22 or the evaluation information 215 and causes the measurement unit 26 to perform measurement of the reference object 7. Further, the measurement control unit 200 controls the stepping motor 25 and rotates the mounting plate 240 prior to measurement by the measurement unit 26. Thereby, the direction of the reference object 7 with respect to the measurement unit 26 (that is, the measurement direction of the reference object 7) is determined.

疑似画像作成部201は、計測部26が基準物体7を計測することにより取得された三次元形状情報211に基づいて、基準物体7を観測方向から擬似的に捉えた二次元画像情報212を、互いに異なる複数の観測方向のそれぞれについて作成する。より詳細には、1つの三次元形状情報211から、1セットの画像情報が作成され、それぞれが二次元画像情報212となる。   Based on the three-dimensional shape information 211 acquired by the measurement unit 26 measuring the reference object 7, the pseudo image creation unit 201 generates two-dimensional image information 212 obtained by pseudo-capturing the reference object 7 from the observation direction. Created for each of a plurality of different observation directions. More specifically, one set of image information is created from one 3D shape information 211, and each becomes 2D image information 212.

なお、複数の観測方向の定義の仕方として、例えば、基準となる観測方向を1つ定義した後、当該基準となる観測方向からθ(数度程度)ずつずらしながら1つ1つの観測方向を定義し、全周にわたって複数の観測方向を定義することが想定される。ただし、複数の観測方向は、このようにして定義されたものに限定されるものではない。物体の三次元の情報から、このような二次元の画像情報を作成する手法としては、従来から様々な技術が提案されており、それらを適宜採用することができる。   In addition, as a method of defining a plurality of observation directions, for example, after defining one reference observation direction, each observation direction is defined while being shifted by θ (about several degrees) from the reference observation direction. It is assumed that a plurality of observation directions are defined over the entire circumference. However, the plurality of observation directions are not limited to those defined in this way. Various techniques have been conventionally proposed as a method for creating such two-dimensional image information from three-dimensional information of an object, and these techniques can be appropriately employed.

また、本実施の形態における疑似画像作成部201は、二次元画像情報212を作成すると、その元となった三次元形状情報211を削除する。すなわち、本実施の形態における姿勢推定システム1では、同一の三次元形状情報211から二次元画像情報212が複数回作成されることはない。ただし、三次元形状情報211を削除せずに、記録しておいてもよい。   In addition, when the pseudo-image creating unit 201 in the present embodiment creates the two-dimensional image information 212, the pseudo-image creating unit 201 deletes the original three-dimensional shape information 211. That is, in the posture estimation system 1 in the present embodiment, the two-dimensional image information 212 is not created a plurality of times from the same three-dimensional shape information 211. However, the three-dimensional shape information 211 may be recorded without being deleted.

モデル作成部202は、疑似画像作成部201により作成された二次元画像情報212を学習素材として見え方生成情報213を作成する。姿勢推定システム1は、モデル作成部202を実現する技術として、例えば、「"Visual vehicl tracking based on an appearance generative model", Kazuhiko Kawamoto, Tatsuya Yonekawa, Kazushi Okamoto, SCIS-ISIS 2012, Kobe, Japan, November 20-24, 2012」(以下、「非特許文献」と称する。)に記載されている技術を用いる。   The model creation unit 202 creates appearance generation information 213 using the two-dimensional image information 212 created by the pseudo image creation unit 201 as a learning material. The posture estimation system 1 is, for example, “Visual vehicl tracking based on an appearance generative model”, Kazuhiko Kawamoto, Tatsuya Yonekawa, Kazushi Okamoto, SCIS-ISIS 2012, Kobe, Japan, November. 20-24, 2012 ”(hereinafter referred to as“ non-patent literature ”).

なお、本実施の形態におけるモデル作成部202は、学習画像として二次元画像情報212を用いて見え方生成情報213を作成すると、その元となったすべての二次元画像情報212を削除する。すなわち、本実施の形態における姿勢推定システム1では、同一の1セットの画像情報(複数の二次元画像情報212)から見え方生成情報213を複数回作成することはない。ただし、二次元画像情報212を削除せずに、記録しておいてもよい。   Note that, when the model creation unit 202 in the present embodiment creates the appearance generation information 213 using the two-dimensional image information 212 as a learning image, the model creation unit 202 deletes all the two-dimensional image information 212 that is the original. That is, in the posture estimation system 1 according to the present embodiment, the appearance generation information 213 is not created a plurality of times from the same set of image information (a plurality of two-dimensional image information 212). However, the 2D image information 212 may be recorded without being deleted.

詳細は後述するが、すでに作成した見え方生成情報213を採用したとしても、推定部203が物体8の姿勢を推定することに失敗した場合(そのような場合が判定情報312に示される。)、計測部26は、再度、基準物体7の計測をおこない、新たな三次元形状情報211を取得する。そして、その場合には、疑似画像作成部201が新たに作成された三次元形状情報211に基づいて新たな二次元画像情報212(新たな1セットの画像情報)を作成する。このように、判定部301による判定結果に応じて、計測部26および疑似画像作成部201が三次元形状情報211および二次元画像情報212を順次作成する。   Although details will be described later, even when the generated appearance generation information 213 is adopted, the estimation unit 203 fails to estimate the posture of the object 8 (such a case is shown in the determination information 312). The measuring unit 26 again measures the reference object 7 and acquires new three-dimensional shape information 211. In that case, the pseudo image creation unit 201 creates new two-dimensional image information 212 (a new set of image information) based on the newly created three-dimensional shape information 211. As described above, the measurement unit 26 and the pseudo image creation unit 201 sequentially create the 3D shape information 211 and the 2D image information 212 according to the determination result by the determination unit 301.

このようにして新たな1セットの画像情報が作成されると、モデル作成部202は新たに作成された1セット分の二次元の画像情報に基づいて新たな見え方生成情報213を作成する。すなわち、モデル作成部202は、判定部301による判定結果(判定情報312)に応じて、新たな見え方生成情報213を作成する。そして、作成された見え方生成情報213は、それぞれ保存される。   When a new set of image information is created in this way, the model creation unit 202 creates new appearance generation information 213 based on the newly created two-dimensional image information for one set. That is, the model creation unit 202 creates new appearance generation information 213 according to the determination result (determination information 312) by the determination unit 301. Then, the generated appearance generation information 213 is stored.

推定部203は、記憶装置21により記憶された見え方生成情報213と撮像部36により取得された撮像情報311とに基づいて、物体8の姿勢を推定して、推定情報214を作成する機能を有している。すなわち、確率モデルである見え方生成情報213と、観測値である撮像情報311とによって、尤度評価することにより、前提条件としての物体8の姿勢(観測方向)を推定する。なお、推定部203による推定の詳細については、上記非特許文献に記載されている技術を用いるため、ここでは詳細な説明を省略する。   The estimation unit 203 has a function of estimating the posture of the object 8 based on the appearance generation information 213 stored in the storage device 21 and the imaging information 311 acquired by the imaging unit 36 and creating the estimation information 214. Have. That is, the posture (observation direction) of the object 8 as a precondition is estimated by evaluating the likelihood using the appearance generation information 213 that is a probability model and the imaging information 311 that is an observation value. In addition, about the detail of the estimation by the estimation part 203, since the technique described in the said nonpatent literature is used, detailed description is abbreviate | omitted here.

また、推定部203は、複数の見え方生成情報213が作成されており、各見え方生成情報213に重み付けがされている場合には、当該重み付けに応じた順序で物体8の姿勢を推定する(詳細は後述する。)。すなわち、推定部203は、重み付けに応じて、複数の見え方生成情報213の中から推定に用いる見え方生成情報213を選択する。   Further, the estimation unit 203 estimates the posture of the object 8 in the order according to the weighting when the plurality of appearance generation information 213 is created and each of the appearance generation information 213 is weighted. (Details will be described later). That is, the estimation unit 203 selects the appearance generation information 213 used for estimation from the plurality of appearance generation information 213 according to the weighting.

評価部204は、モデル作成部202により作成された複数の見え方生成情報213のそれぞれに重み付けを行う。より具体的には、評価部204は、判定部301による作成された判定情報312に応じて重み付けを行う。   The evaluation unit 204 weights each of the plurality of appearance generation information 213 created by the model creation unit 202. More specifically, the evaluation unit 204 performs weighting according to the determination information 312 created by the determination unit 301.

図4は、運搬ロボット3のブロック図である。運搬ロボット3は、CPU30、記憶装置31、操作部32、表示部33、アーム部34、対物センサ35、撮像部36および通信部37を備える。詳細は後述するが、運搬ロボット3は、物体8を把持して所定の位置まで運ぶ機能を有している。   FIG. 4 is a block diagram of the transport robot 3. The transport robot 3 includes a CPU 30, a storage device 31, an operation unit 32, a display unit 33, an arm unit 34, an objective sensor 35, an imaging unit 36, and a communication unit 37. Although details will be described later, the transport robot 3 has a function of gripping the object 8 and transporting it to a predetermined position.

CPU30は、記憶装置31に格納されているプログラム310を読み取りつつ実行し、各種データの演算や制御信号の生成等を行う。これにより、CPU30は、運搬ロボット3が備える各構成を制御するとともに、各種データを演算し作成する機能を有している。すなわち、運搬ロボット3は、一般的なコンピュータとして構成されている。なお、CPU30によって実現される機能については後述する。   The CPU 30 reads and executes the program 310 stored in the storage device 31, and performs various data calculations and control signal generation. Thereby, CPU30 has the function which calculates and produces various data while controlling each structure with which the conveyance robot 3 is provided. That is, the transport robot 3 is configured as a general computer. The functions realized by the CPU 30 will be described later.

記憶装置31は、運搬ロボット3において各種データを記憶する機能を提供する。言い換えれば、記憶装置31が運搬ロボット3において電子的に固定された情報を保存する。   The storage device 31 provides a function of storing various data in the transport robot 3. In other words, the storage device 31 stores information electronically fixed in the transport robot 3.

記憶装置31としては、CPU30の一時的なワーキングエリアとして使用されるRAMやバッファ、読み取り専用のROM、不揮発性のメモリ(例えばNANDメモリなど)、比較的大容量のデータを記憶するハードディスク、専用の読み取り装置に装着された可搬性の記憶媒体(CD−ROM、PCカード、SDカード、USBメモリなど)等が該当する。図4においては、記憶装置31を、あたかも1つの構造物であるかのように図示している。しかし、通常、記憶装置31は、上記例示した各種装置(あるいは媒体)のうち、必要に応じて採用される複数種類の装置から構成されるものである。すなわち、記憶装置31は、データを記憶する機能を有する装置群の総称である。   As the storage device 31, a RAM or buffer used as a temporary working area of the CPU 30, a read-only ROM, a non-volatile memory (such as a NAND memory), a hard disk for storing a relatively large amount of data, a dedicated memory A portable storage medium (a CD-ROM, a PC card, an SD card, a USB memory, or the like) mounted on the reading device is applicable. In FIG. 4, the storage device 31 is illustrated as if it were one structure. However, normally, the storage device 31 is composed of a plurality of types of devices that are employed as necessary among the various devices (or media) exemplified above. That is, the storage device 31 is a generic name for a group of devices having a function of storing data.

また、現実のCPU30は高速にアクセス可能なRAMを内部に備えた電子回路である。しかし、このようなCPU30が備える記憶装置も、説明の都合上、記憶装置31に含めて説明する。すなわち、以下の説明では、一時的にCPU30自体が記憶するデータも、記憶装置31が記憶するとして説明する。図4に示すように、記憶装置31は、プログラム310、撮像情報311、判定情報312および推定情報214等を記憶するために使用される。   Further, the actual CPU 30 is an electronic circuit provided with a RAM that can be accessed at high speed. However, such a storage device included in the CPU 30 is also included in the storage device 31 for convenience of explanation. That is, in the following description, it is assumed that the storage device 31 also stores data temporarily stored in the CPU 30 itself. As shown in FIG. 4, the storage device 31 is used for storing a program 310, imaging information 311, determination information 312, estimation information 214, and the like.

操作部32は、オペレータなどによって操作されるハードウェアである。操作部32は、オペレータ等が運搬ロボット3に対して指示を入力するために使用される。   The operation unit 32 is hardware operated by an operator or the like. The operation unit 32 is used for an operator or the like to input an instruction to the transport robot 3.

表示部33は、オペレータ等に運搬ロボット3の状態などに関する情報を提供する出力装置である。表示部33としては、例えば、ランプやLED、液晶パネルなどが該当する。   The display unit 33 is an output device that provides information regarding the state of the transport robot 3 to an operator or the like. Examples of the display unit 33 include a lamp, an LED, and a liquid crystal panel.

アーム部34は、CPU30からの制御信号に応じて駆動され、当該物体8を把持して、指示された位置に向けて搬送する。   The arm unit 34 is driven in accordance with a control signal from the CPU 30, grips the object 8, and conveys the object 8 toward the instructed position.

対物センサ35は、所定の方向に検出光(レザー光や赤外線など)を照射し、反射光を読み取ることにより、当該所定の方向に物体が存在するか否かを検出する装置である。対物センサ35は、アーム部34により把持された物体8を検出することができるように設置されている。逆に言えば、対物センサ35によって物体8が検出されていなければ、アーム部34は物体8を把持していないものとみなせる。   The objective sensor 35 is a device that detects whether or not an object exists in the predetermined direction by irradiating detection light (leather light, infrared light, or the like) in a predetermined direction and reading reflected light. The objective sensor 35 is installed so as to be able to detect the object 8 gripped by the arm unit 34. In other words, if the object 8 is not detected by the objective sensor 35, the arm unit 34 can be regarded as not holding the object 8.

撮像部36は、一般的なデジタルカメラであって、詳細は省略するが、光学レンズやレンズ駆動部、光電変換素子、画像処理部などを備えている。撮像部36は、CPU30からの制御信号に応じて、被写体を撮像して静止画像を取得する機能を有しており、物体8を撮像して撮像情報311を作成する。   The imaging unit 36 is a general digital camera, and includes an optical lens, a lens driving unit, a photoelectric conversion element, an image processing unit, and the like, although details are omitted. The imaging unit 36 has a function of capturing a subject and acquiring a still image in accordance with a control signal from the CPU 30. The imaging unit 36 captures the object 8 and creates imaging information 311.

通信部37は、運搬ロボット3をネットワーク9にデータ通信が可能な状態で接続する機能を提供する。これにより、運搬ロボット3は、ネットワーク9を介して、制御装置2との間でデータ通信を行うことができる。通信部37は、撮像情報311や判定情報312などを制御装置2に向けて送信する一方で、制御情報(図示せず)や推定情報214などを制御装置2から受信する。   The communication unit 37 provides a function of connecting the transport robot 3 to the network 9 in a state where data communication is possible. Thereby, the transport robot 3 can perform data communication with the control device 2 via the network 9. The communication unit 37 transmits imaging information 311, determination information 312, and the like to the control device 2, while receiving control information (not shown), estimation information 214, and the like from the control device 2.

図5は、運搬ロボット3が備える機能ブロックをデータの流れとともに示す図である。図5に示すアーム制御部300および判定部301は、CPU30がプログラム310に従って動作することにより実現される機能ブロックである。   FIG. 5 is a diagram showing the functional blocks provided in the transport robot 3 together with the data flow. The arm control unit 300 and the determination unit 301 illustrated in FIG. 5 are functional blocks that are realized when the CPU 30 operates according to the program 310.

アーム制御部300は、物体8について推定された姿勢を示す推定情報214に基づいて、物体8を把持するようにアーム部34を制御する。また、アーム制御部300は、アーム部34に物体8を把持させたタイミングに応じて、対物センサ35に物体8を検出するように対物センサ35を制御する。さらに、アーム制御部300は、アーム部34が物体8を正常に把持することができた場合(対物センサ35が物体8を検出した場合)、把持した物体8を所定の位置に搬送するようにアーム部34を制御する。   The arm control unit 300 controls the arm unit 34 to grip the object 8 based on the estimation information 214 indicating the posture estimated for the object 8. Further, the arm control unit 300 controls the objective sensor 35 so that the object sensor 35 detects the object 8 in accordance with the timing at which the arm unit 34 grips the object 8. Further, when the arm unit 34 can normally grip the object 8 (when the objective sensor 35 detects the object 8), the arm control unit 300 conveys the gripped object 8 to a predetermined position. The arm part 34 is controlled.

判定部301は、対物センサ35が物体8を検出したか否かに応じて、推定結果の適否を示す判定情報312を作成する。すなわち、判定部301は、アーム部34により物体8を把持することができたか否かに応じて、推定情報214に示されている推定結果(物体8の姿勢)の適否を判定する。   The determination unit 301 creates determination information 312 indicating whether the estimation result is appropriate according to whether the object sensor 35 has detected the object 8. That is, the determination unit 301 determines whether or not the estimation result (the posture of the object 8) indicated in the estimation information 214 is appropriate depending on whether or not the object 8 can be gripped by the arm unit 34.

以上が、姿勢推定システム1の構成および機能の説明である。次に、姿勢推定システム1を用いて物体8の姿勢を推定する方法について説明する。   The above is the description of the configuration and function of the posture estimation system 1. Next, a method for estimating the posture of the object 8 using the posture estimation system 1 will be described.

図6ないし図8は、姿勢推定方法における、主に制御装置2において実行される工程を示す流れ図である。制御装置2は、オペレータによって電源が投入されると、図示しない所定の初期設定を実行する。初期設定では、例えば、これから運搬ロボット3によって運搬する物体8を選択する処理(ワーク決定処理)なども実行されるものとする。所定の初期設定が終了すると、制御装置2は、ステップS1を実行する。   6 to 8 are flowcharts showing the steps executed mainly in the control device 2 in the posture estimation method. When the power is turned on by the operator, the control device 2 executes a predetermined initial setting (not shown). In the initial setting, for example, a process of selecting an object 8 to be transported by the transport robot 3 (work determination process) is executed. When the predetermined initial setting is completed, the control device 2 executes Step S1.

ステップS1において、CPU20は、物体8に対する見え方生成情報213がすでに作成され、記憶装置21上に存在しているか否かを判定する。   In step S <b> 1, the CPU 20 determines whether the appearance generation information 213 for the object 8 has already been created and exists on the storage device 21.

見え方生成情報213が1つも存在していない状態では、制御装置2(推定部203)は、物体8の姿勢を推定することはできない。したがって、ステップS1においてNoと判定された場合には、制御装置2は、まず、見え方生成情報213を作成する必要がある。そこで、制御装置2は、ステップS2ないしS7の処理を実行する。   In a state where there is no appearance generation information 213, the control device 2 (estimator 203) cannot estimate the posture of the object 8. Therefore, when it is determined No in step S <b> 1, the control device 2 needs to create the appearance generation information 213 first. Therefore, the control device 2 executes the processes of steps S2 to S7.

まず、CPU20は、表示部23にメッセージを表示させ、オペレータに基準物体7を準備するように促す。例えば、「三次元計測を実行します。計測台の載置板上に、計測する基準となる物体を載置してください。」などのメッセージを表示する。   First, the CPU 20 displays a message on the display unit 23 and prompts the operator to prepare the reference object 7. For example, a message such as “Execute 3D measurement. Place an object to be measured on the mounting plate of the measurement table.” Is displayed.

表示部23に表示されたメッセージを確認することにより、オペレータは、基準物体7を準備し、計測台24の載置板240に基準物体7を載置する(ステップS2)。なお、基準物体7が載置板240に載置されたか否かは、オペレータが操作部22を操作して、載置完了を制御装置2に知らせるものとする。ただし、様々なセンサにより、自動的に検出するようにしてもよい。   By confirming the message displayed on the display unit 23, the operator prepares the reference object 7, and places the reference object 7 on the placement plate 240 of the measurement table 24 (step S2). Whether or not the reference object 7 is placed on the placement plate 240 is determined by the operator operating the operation unit 22 to notify the control device 2 of the completion of placement. However, it may be automatically detected by various sensors.

次に、CPU20は、再び表示部23にメッセージを表示させ、オペレータに計測方向を決定するように促す。例えば、「計測する向きを選択してください。」などのメッセージと、選択可能な計測方向の一覧などを表示する。   Next, the CPU 20 displays the message again on the display unit 23 and prompts the operator to determine the measurement direction. For example, a message such as “Please select the measurement direction” and a list of selectable measurement directions are displayed.

このメッセージに従って、オペレータが操作部22を操作して計測方向を選択し入力すると、計測制御部200は、オペレータによって選択された計測方向となるように、ステッピングモータ25を制御する。これにより、ステッピングモータ25が載置板240を回転させて、基準物体7の計測部26に対する向きがオペレータが所望した向きとなるように調整し、計測方向が決定される(ステップS3)。   When the operator operates the operation unit 22 according to this message to select and input the measurement direction, the measurement control unit 200 controls the stepping motor 25 so that the measurement direction selected by the operator is obtained. Thereby, the stepping motor 25 rotates the mounting plate 240 to adjust the orientation of the reference object 7 with respect to the measurement unit 26 so as to be the orientation desired by the operator, and the measurement direction is determined (step S3).

なお、ステップS3が繰り返され、同一の基準物体7に対する2つ目以降の見え方生成情報213が作成される場合には、計測方向は、それまでに採用したものと異なるものとして決定する必要がある。同一の計測方向(同一条件)での計測を繰り返して見え方生成情報213を作成しても、原則として推定精度は向上しないからである。したがって、見え方生成情報213が存在している状態で、ステップS3が実行される場合には、表示部23は、選択可能な計測方向の一覧から、すでに採用された計測方向を除外(あるいは選択不能の状態で表示)する。   When step S3 is repeated and second and subsequent appearance generation information 213 for the same reference object 7 is created, it is necessary to determine that the measurement direction is different from the one used so far. is there. This is because, even if the appearance generation information 213 is generated by repeating measurement in the same measurement direction (same condition), the estimation accuracy is not improved in principle. Therefore, when step S3 is executed in the state where the appearance generation information 213 exists, the display unit 23 excludes (or selects) the measurement directions that have already been adopted from the list of selectable measurement directions. (Displayed in a disabled state).

また、ステップS3における計測方向の決定は、必ずしもオペレータによって決定されなければならないわけではなく、制御装置2により自動的に行われてもよい。例えば、載置板240に載置されるときの基準物体7の向きを指定しておき、ステップS2においてはこの向きとなるようにオペレータに基準物体7を載置させる。そして、計測回数に応じて、計測方向を予め設定しておき、見え方生成情報213の個数から計測回数を判定して、計測方向を決定してもよい。   Further, the determination of the measurement direction in step S3 does not necessarily have to be determined by the operator, and may be performed automatically by the control device 2. For example, the orientation of the reference object 7 when it is placed on the placement plate 240 is specified, and in step S2, the operator places the reference object 7 so as to be in this orientation. Then, the measurement direction may be set in advance according to the number of measurements, and the number of measurements may be determined from the number of appearance generation information 213 to determine the measurement direction.

基準物体7が準備され、計測方向が決定されると、計測制御部200は、計測部26に計測を実行するように制御する。これにより、計測部26が計測を行い(ステップS4)、新しい三次元形状情報211が作成される(ステップS5)。すでに、説明したように、ステップS4では、ステップS3において決定された一の計測方向についてのみ、基準物体7に対する三次元の計測が行われる。   When the reference object 7 is prepared and the measurement direction is determined, the measurement control unit 200 controls the measurement unit 26 to perform measurement. Thereby, the measurement part 26 measures (step S4), and the new three-dimensional shape information 211 is created (step S5). As already described, in step S4, three-dimensional measurement is performed on the reference object 7 only in one measurement direction determined in step S3.

このようにして作成される三次元形状情報211は、全周にわたる詳細な三次元の情報に比べて、簡易に取得することができる。したがって、姿勢推定システム1は、物体8が頻繁に変更されたとしても、従来の技術に比べて、準備に要する負担が軽く、すばやく適応することができる。   The three-dimensional shape information 211 created in this way can be easily obtained compared to detailed three-dimensional information over the entire circumference. Therefore, even if the object 8 is frequently changed, the posture estimation system 1 has a lighter burden for preparation than the conventional technique and can be quickly adapted.

ステップS5が実行されると、疑似画像作成部201は、新たに作成された三次元形状情報211に基づいて、観測方向の異なる複数の二次元画像情報212(1セットの画像情報)を新たに作成する(ステップS6)。   When step S5 is executed, the pseudo image creation unit 201 newly creates a plurality of pieces of two-dimensional image information 212 (one set of image information) having different observation directions based on the newly created three-dimensional shape information 211. Create (step S6).

次に、モデル作成部202は、ステップS6において新たに作成された複数の二次元画像情報212に基づいて、新たな見え方生成情報213を作成する(ステップS7)。   Next, the model creation unit 202 creates new appearance generation information 213 based on the plurality of two-dimensional image information 212 newly created in step S6 (step S7).

なお、見え方生成情報213のそれぞれには、物体8を識別する情報と、ステップS3において決定された計測方向を識別する情報と、推定部203による推定に使用された回数(以下、「使用回数」と称する。)と、当該推定において正しく推定された回数(以下、「成功回数」と称する。)とが関連づけられる。当然のことながら、使用回数および成功回数は、見え方生成情報213が作成されたときには、いずれも初期値としての「0」である。   Each of the appearance generation information 213 includes information for identifying the object 8, information for identifying the measurement direction determined in step S3, and the number of times used for estimation by the estimation unit 203 (hereinafter, “number of times of use”). And the number of times correctly estimated in the estimation (hereinafter referred to as “success count”). As a matter of course, the number of times of use and the number of successes are both “0” as an initial value when the appearance generation information 213 is created.

ステップS7が実行されるか、または、ステップS1においてYesと判定されると、制御装置2は、ステップS11を実行しつつ、撮像情報311の受信を監視しつづける状態(以下、「監視状態」と称する。)に移行する。なお、後述するステップS18が実行されたときにも、制御装置2は、監視状態に移行する。   When step S7 is executed or when it is determined as Yes in step S1, the control device 2 continues to monitor reception of the imaging information 311 while executing step S11 (hereinafter referred to as “monitoring state”). Shift to). In addition, also when step S18 mentioned later is performed, the control apparatus 2 transfers to a monitoring state.

監視状態において、通信部27により撮像情報311が受信されると、CPU20は、ステップS11においてYesと判定する。そして、ステップS11においてYesと判定されると、推定部203は、記憶装置21に記憶されている見え方生成情報213から、推定に使用する見え方生成情報213を選択する(ステップS12)。   When the imaging information 311 is received by the communication unit 27 in the monitoring state, the CPU 20 determines Yes in step S11. When it is determined Yes in step S11, the estimation unit 203 selects the appearance generation information 213 used for estimation from the appearance generation information 213 stored in the storage device 21 (step S12).

ステップS12において、推定部203は、物体8を識別する情報に基づいて、記憶装置21に記憶されている見え方生成情報213から、物体8について作成された見え方生成情報213を抽出する。   In step S <b> 12, the estimation unit 203 extracts the appearance generation information 213 created for the object 8 from the appearance generation information 213 stored in the storage device 21 based on the information for identifying the object 8.

なお、物体8を識別するための情報は、予めオペレータにより特定されていてもよい。すなわち、運搬ロボット3のワーク(物体8)が特定されていてもよい。しかし、例えば、受信した撮像情報311に対して画像認識処理を施し、撮像されている物体8を認識することにより特定してもよい。このように構成することにより、運搬ロボット3のワーク(物体8)について様々な物体が混在する状況(運搬ロボット3のところにどの物体がどのタイミングで来るか不定の場合)にも対応することができる。   Note that information for identifying the object 8 may be specified in advance by an operator. That is, the work (object 8) of the transport robot 3 may be specified. However, for example, the received imaging information 311 may be identified by performing image recognition processing and recognizing the object 8 being imaged. By configuring in this way, it is possible to cope with a situation in which various objects are mixed with respect to the work (object 8) of the transport robot 3 (when it is uncertain which object comes to the transport robot 3 at which timing). it can.

ここで、抽出された見え方生成情報213が1つの場合は、当該見え方生成情報213を選択する。   Here, when the extracted appearance generation information 213 is one, the appearance generation information 213 is selected.

一方、抽出した見え方生成情報213が複数である場合には、当該抽出した見え方生成情報213に関連づけられている使用回数および成功回数を取得して、各見え方生成情報213の「重み」を演算する。重みは、例えば、成功回数/使用回数で求めることができる。抽出されたすべての見え方生成情報213について「重み」が求まると、推定部203は「重み」が最大の見え方生成情報213を選択する。すなわち、推定部203は、重み付けに応じて、複数の見え方生成情報213の中から推定に用いる見え方生成情報213を選択する。   On the other hand, when there are a plurality of extracted appearance generation information 213, the number of uses and the number of successes associated with the extracted appearance generation information 213 are acquired, and the “weight” of each appearance generation information 213 is acquired. Is calculated. The weight can be obtained by, for example, the number of successes / the number of uses. When “weight” is obtained for all the extracted appearance generation information 213, the estimation unit 203 selects the appearance generation information 213 having the maximum “weight”. That is, the estimation unit 203 selects the appearance generation information 213 used for estimation from the plurality of appearance generation information 213 according to the weighting.

推定に使用する見え方生成情報213が選択されると、推定部203は、受信した撮像情報311を観測値として、見え方生成情報213に基づいて、当該撮像情報311が撮像されたときの物体8の姿勢を推定し(ステップS13)、推定情報214を作成する(ステップS14)。   When the appearance generation information 213 used for estimation is selected, the estimation unit 203 uses the received imaging information 311 as an observation value, and the object when the imaging information 311 is imaged based on the appearance generation information 213 8 is estimated (step S13), and estimation information 214 is created (step S14).

推定情報214が作成されると、通信部27は、当該推定情報214を運搬ロボット3に向けて送信する(ステップS15)。すなわち、制御装置2は、運搬ロボット3からの撮像情報311に対するレスポンスとして、推定情報214を作成して運搬ロボット3に向けて送信する。言い換えれば、運搬ロボット3が撮像情報311を送信することにより、当該撮像情報311に撮像されている物体8の姿勢を制御装置2に問い合わせ、当該問い合わせに対して、制御装置2が当該物体8の姿勢を推定して、回答としての推定情報214を運搬ロボット3に送信するのである。   When the estimated information 214 is created, the communication unit 27 transmits the estimated information 214 toward the transport robot 3 (step S15). That is, the control device 2 creates the estimation information 214 as a response to the imaging information 311 from the transport robot 3 and transmits it to the transport robot 3. In other words, when the transport robot 3 transmits the imaging information 311, the control device 2 inquires of the control device 2 about the posture of the object 8 imaged in the imaging information 311. The posture is estimated, and estimated information 214 as an answer is transmitted to the transport robot 3.

推定情報214を送信すると、CPU20は、判定情報312を受信したか否かを判定し(ステップS16)、判定情報312を受信するまでステップS16を繰り返しつつ待機する。判定情報312は、推定情報214に対するレスポンスとして、運搬ロボット3から制御装置2に向けて送信される情報である。   When the estimation information 214 is transmitted, the CPU 20 determines whether or not the determination information 312 has been received (step S16), and waits while repeating step S16 until the determination information 312 is received. The determination information 312 is information transmitted from the transport robot 3 toward the control device 2 as a response to the estimation information 214.

判定情報312が受信されると(ステップS16においてYes。)、評価部204は、受信された判定情報312において判定結果が「0」となっているか否かを判定する(ステップS17)。   When the determination information 312 is received (Yes in step S16), the evaluation unit 204 determines whether or not the determination result is “0” in the received determination information 312 (step S17).

判定結果が「0」の場合とは、制御装置2から送信された推定情報214によって推定された姿勢に基づいてアーム部34を制御した結果、物体8を正常に把持することができたことを表している。姿勢推定システム1は、物体8を正常に把持できたか否かによって、推定部203による推定結果(推定情報214)の適否を判定する。   The case where the determination result is “0” means that the object 8 can be normally gripped as a result of controlling the arm unit 34 based on the posture estimated by the estimation information 214 transmitted from the control device 2. Represents. The posture estimation system 1 determines whether the estimation result (estimation information 214) by the estimation unit 203 is appropriate based on whether or not the object 8 has been normally gripped.

判定結果が「0」の場合(ステップS17においてYes。)、評価部204は、ステップS12において選択された見え方生成情報213(推定に使用された見え方生成情報213)の使用回数と、成功回数とをそれぞれインクリメントすることにより、当該見え方生成情報213の重み付けを行う(ステップS18)。   When the determination result is “0” (Yes in Step S17), the evaluation unit 204 determines the number of uses of the appearance generation information 213 selected in Step S12 (the appearance generation information 213 used for estimation) and the success. The appearance generation information 213 is weighted by incrementing the number of times (step S18).

このように、評価部204は、モデル作成部202により作成された複数の見え方生成情報213のそれぞれに重み付けを行う。これにより、推定した姿勢により物体8の把持に成功し、判定結果が「0」となった場合には、当該推定に使用された見え方生成情報213の「重み」の値が大きくなり、以後、優先的にステップS12において選択されるようになる。   In this way, the evaluation unit 204 weights each of the plurality of appearance generation information 213 created by the model creation unit 202. Thereby, when the object 8 is successfully grasped by the estimated posture and the determination result is “0”, the value of the “weight” of the appearance generation information 213 used for the estimation increases, and thereafter , It is preferentially selected in step S12.

なお、ステップS18が実行されると、すでに説明したように、制御装置2は、監視状態に戻る。   Note that when step S18 is executed, the control device 2 returns to the monitoring state as already described.

一方、判定結果が「1」の場合(ステップS17においてNo。)、評価部204は、ステップS12において選択された見え方生成情報213の使用回数のみをインクリメントすることにより、当該見え方生成情報213の重み付けを行う(ステップS21)。   On the other hand, when the determination result is “1” (No in Step S17), the evaluation unit 204 increments only the number of times of use of the appearance generation information 213 selected in Step S12, thereby the appearance generation information 213. Is weighted (step S21).

これにより、推定した姿勢により物体8の把持に失敗し、判定結果が「1」となった場合には、当該推定に使用された見え方生成情報213の「重み」の値が小さくなり、以後、ステップS12において選択される確率は低下する。   As a result, when the gripping of the object 8 fails due to the estimated posture and the determination result is “1”, the value of the “weight” of the appearance generation information 213 used for the estimation becomes small. The probability of being selected in step S12 decreases.

次に、推定部203は、同じ物体8について準備されている見え方生成情報213が他に存在しているか否か(ステップS12において、物体8を識別する情報によって抽出されたすべての見え方生成情報213による推定が終了したか否か)を判定する(ステップS22)。   Next, the estimation unit 203 determines whether there is any other appearance generation information 213 prepared for the same object 8 (in step S12, all appearance generations extracted by information identifying the object 8). It is determined whether or not the estimation based on the information 213 has been completed (step S22).

そして、未だ終了していない見え方生成情報213が存在する場合(ステップS22においてNo。)、これらの見え方生成情報213について「重み」を演算し、「重み」の値が最も大きい見え方生成情報213に変更して(ステップS23)、ステップS13からの処理を繰り返す。   If there is appearance generation information 213 that has not yet been completed (No in step S22), “weight” is calculated for these appearance generation information 213, and appearance generation with the largest “weight” value is performed. The information 213 is changed (step S23), and the processing from step S13 is repeated.

一方、すべての見え方生成情報213による推定が終了している場合(ステップS22においてYes。)、当該物体8について準備されている見え方生成情報213では、正常に姿勢を推定することができないとみなして、ステップS2からの処理を繰り返す。   On the other hand, when the estimation based on all the appearance generation information 213 has been completed (Yes in step S22), the appearance generation information 213 prepared for the object 8 cannot normally estimate the posture. Accordingly, the processing from step S2 is repeated.

ステップS22においてYesと判定した場合、評価部204は、見え方生成情報213を再度生成するように指示する評価情報215を作成する。これにより、計測制御部200は、ステップS2ないしS7の処理を実行する。   When it determines with Yes in step S22, the evaluation part 204 produces the evaluation information 215 which instruct | indicates to generate | occur | produce the appearance generation information 213 again. Thereby, the measurement control part 200 performs the process of step S2 thru | or S7.

すでに説明したように、ステップS2ないしS7の処理が実行されると、物体8について新たな見え方生成情報213が作成され、記憶装置21に格納される。そして、物体8について新たな見え方生成情報213が作成されると、制御装置2は、当該見え方生成情報213によってステップS13からの処理を繰り返す。   As described above, when the processes of steps S2 to S7 are executed, new appearance generation information 213 is created for the object 8 and stored in the storage device 21. Then, when new appearance generation information 213 is created for the object 8, the control device 2 repeats the processing from step S13 with the appearance generation information 213.

以上が、主に、制御装置2において実行される工程である。次に、運搬ロボット3において実行される工程について説明する。   The above is the process mainly executed in the control device 2. Next, the process performed in the transport robot 3 will be described.

図9および図10は、姿勢推定方法における、主に運搬ロボット3において実行される工程を示す流れ図である。なお、運搬ロボット3は、電源が投入されると、所定の初期設定を実行した後、運搬すべき物体8の到着を待つ状態となる。運搬ロボット3のこの状態を待機状態と称する。   FIG. 9 and FIG. 10 are flowcharts showing steps executed mainly in the transport robot 3 in the posture estimation method. When the power supply is turned on, the transport robot 3 waits for the arrival of the object 8 to be transported after executing predetermined initial settings. This state of the transport robot 3 is referred to as a standby state.

待機状態において、物体8を検出すると、CPU30は、ステップS31においてYesと判定し、検出した物体8を撮像するように撮像部36を制御する。これにより、撮像部36は、到着した物体8を撮像し(ステップS32)、撮像情報311を作成する(ステップS33)。   When the object 8 is detected in the standby state, the CPU 30 determines Yes in step S31 and controls the imaging unit 36 so as to image the detected object 8. Thereby, the imaging part 36 images the arrived object 8 (step S32), and creates the imaging information 311 (step S33).

撮像情報311が作成されると、通信部37は、当該撮像情報311を制御装置2に向けて送信する(ステップS34)。これにより、制御装置2に対して、物体8についての姿勢推定依頼がされたことになる。   When the imaging information 311 is created, the communication unit 37 transmits the imaging information 311 toward the control device 2 (step S34). Thereby, a posture estimation request for the object 8 is made to the control device 2.

撮像情報311が送信されると、CPU30は、ステップS35を実行することにより、推定情報214を受信するまで待機する。言い換えれば、ステップS35は、運搬ロボット3が姿勢推定依頼に対するレスポンスを待っている状態である。   When the imaging information 311 is transmitted, the CPU 30 waits until the estimation information 214 is received by executing step S35. In other words, step S35 is a state in which the transport robot 3 is waiting for a response to the posture estimation request.

推定情報214を受信すると(ステップS35においてYes。)、アーム制御部300は、当該推定情報214に基づいて、物体8を把持するようにアーム部34を制御する。これにより、アーム部34は、物体8を把持する動作を実行する(ステップS41)。   When the estimation information 214 is received (Yes in step S35), the arm control unit 300 controls the arm unit 34 to grip the object 8 based on the estimation information 214. Thereby, the arm part 34 performs the operation | movement which hold | grips the object 8 (step S41).

アーム部34が把持動作を完了すると、アーム制御部300は、物体8を検出するように対物センサ35を制御する。これにより、対物センサ35が物体8の検出を行う(ステップS42)。   When the arm unit 34 completes the gripping operation, the arm control unit 300 controls the objective sensor 35 so as to detect the object 8. Thereby, the objective sensor 35 detects the object 8 (step S42).

対物センサ35は、物体8がアーム部34によって正常に把持されているときに、当該物体8を検出するように設置されている。したがって、対物センサ35によって物体8が検出されたか否かを判定することによって、アーム部34が物体8を正常に把持できたか否かを判定することができる。そこで、CPU30は、対物センサ35によって物体8を検出できたか否かを判定する(ステップS43)。   The objective sensor 35 is installed so as to detect the object 8 when the object 8 is normally held by the arm unit 34. Therefore, by determining whether or not the object 8 is detected by the objective sensor 35, it is possible to determine whether or not the arm unit 34 has successfully gripped the object 8. Therefore, the CPU 30 determines whether or not the object 8 has been detected by the objective sensor 35 (step S43).

対物センサ35が物体8を検出した場合(ステップS43においてYes。)、アーム制御部300は、物体8を所定の位置に搬送するようにアーム部34を制御する。これにより、アーム部34は、把持した物体8を所定の位置に搬送する(ステップS44)。   When the objective sensor 35 detects the object 8 (Yes in step S43), the arm control unit 300 controls the arm unit 34 so as to convey the object 8 to a predetermined position. Thereby, the arm part 34 conveys the grasped object 8 to a predetermined position (step S44).

ステップS44と並行して、判定部301は、判定結果として「0(把持完了)」を含む判定情報312を作成する(ステップS45)。そして、通信部37は、作成された判定情報312を制御装置2に向けて送信する(ステップS46)。なお、ステップS46の処理を終了すると、運搬ロボット3はステップS31に戻って処理を繰り返す。   In parallel with step S44, the determination unit 301 creates determination information 312 including “0 (grip completion)” as a determination result (step S45). And the communication part 37 transmits the produced determination information 312 toward the control apparatus 2 (step S46). When the process of step S46 is completed, the transport robot 3 returns to step S31 and repeats the process.

一方、対物センサ35が物体8を検出しなかった場合(ステップS43においてNo。)、判定部301は、判定結果として「1(把持失敗)」を含む判定情報312を作成する(ステップS47)。そして、通信部37は、作成された判定情報312を制御装置2に向けて送信する(ステップS48)。   On the other hand, when the objective sensor 35 does not detect the object 8 (No in step S43), the determination unit 301 creates determination information 312 including “1 (gripping failure)” as a determination result (step S47). And the communication part 37 transmits the produced determination information 312 toward the control apparatus 2 (step S48).

ステップS48の処理を終了すると、運搬ロボット3はステップS35に戻って処理を繰り返す。すなわち、ステップS35によって新たな推定情報214が受信されるのを待ってから、再び、ステップS41ないし43の処理を実行する。   When the process of step S48 is completed, the transport robot 3 returns to step S35 and repeats the process. That is, after waiting for new estimated information 214 to be received in step S35, the processes in steps S41 to S43 are executed again.

なお、アーム部34が物体8の把持に失敗した場合、把持を試みたアーム部34により物体8の姿勢は撮像時から変化していることも想定される。したがって、把持に失敗した場合において、運搬ロボット3は、ステップS32,S33に相当する工程を実行し、新たに撮像しなおした撮像情報311を判定情報312とともに送信してもよい。   In addition, when the arm part 34 fails to hold | grip the object 8, it is also assumed that the attitude | position of the object 8 has changed from the time of imaging by the arm part 34 which tried to hold | grip. Therefore, when the gripping fails, the transport robot 3 may execute a process corresponding to steps S32 and S33 and transmit the imaging information 311 that has been newly imaged together with the determination information 312.

以上のように、姿勢推定システム1は、一の計測方向から基準物体7を測定することにより基準物体7の当該一の計測方向に対応する三次元形状情報211を取得する計測部26と、計測部26により取得された三次元形状情報211に基づいて、基準物体7を観測方向から擬似的に捉えた二次元画像情報212を、互いに異なる複数の観測方向のそれぞれについて作成する疑似画像作成部201と、疑似画像作成部201により作成された二次元画像情報212を学習素材として見え方生成情報213を作成するモデル作成部202と、モデル作成部202により作成された見え方生成情報213を予め記憶する記憶装置21と、物体8を撮像して撮像情報311を取得する撮像部36と、記憶装置21により記憶された見え方生成情報213と撮像部36により取得された撮像情報311とに基づいて、物体8の姿勢を推定する推定部203とを備える。   As described above, the posture estimation system 1 includes the measurement unit 26 that acquires the three-dimensional shape information 211 corresponding to the one measurement direction of the reference object 7 by measuring the reference object 7 from one measurement direction, and the measurement. Based on the three-dimensional shape information 211 acquired by the unit 26, the pseudo-image creating unit 201 creates two-dimensional image information 212 obtained by simulating the reference object 7 from the observation direction for each of a plurality of different observation directions. The model creation unit 202 that creates the appearance generation information 213 using the two-dimensional image information 212 created by the pseudo image creation unit 201 as a learning material, and the appearance generation information 213 created by the model creation unit 202 are stored in advance. Storage device 21, imaging unit 36 that captures image 8 by capturing object 8, and appearance generation information 2 stored in storage device 21. 3 and based on the imaging information 311 acquired by the imaging unit 36, and a estimation unit 203 for estimating the orientation of the object 8.

これにより、正確な三次元の形状情報(例えばCAD情報)がなくても、簡単な計測で物体8の姿勢を推定できる。セル生産に従事するセル型ロボット(運搬ロボット3)において、ワークが様々に変化したとしても、学習に時間を要することなく、柔軟に対応することができる。   Thereby, the posture of the object 8 can be estimated by simple measurement without accurate three-dimensional shape information (for example, CAD information). In the cell type robot (transport robot 3) engaged in cell production, even if the work changes in various ways, it is possible to respond flexibly without taking time for learning.

また、推定部203による推定情報214の適否を判定する判定部301をさらに備え、モデル作成部202は、判定部301による判定情報312に応じて、新たな見え方生成情報213を作成する。これにより、失敗した場合においても、短い時間で復帰が可能となる。   In addition, a determination unit 301 that determines whether the estimation information 214 is appropriate by the estimation unit 203 is further included, and the model creation unit 202 creates new appearance generation information 213 according to the determination information 312 by the determination unit 301. Thereby, even in the case of a failure, it is possible to return in a short time.

また、物体8を把持するアーム部34をさらに備え、判定部301は、アーム部34により物体8を把持することができたか否かに応じて、推定情報214の適否を判定する。このように、要求された作業が達成できたか否かで推定された姿勢の適否を判定することにより、実際の要求精度に応じて判定することができる。   Furthermore, the arm unit 34 that holds the object 8 is further provided, and the determination unit 301 determines the suitability of the estimation information 214 according to whether or not the object 8 can be held by the arm unit 34. In this manner, by determining whether or not the estimated posture is appropriate based on whether or not the requested work has been achieved, it can be determined according to the actual required accuracy.

また、モデル作成部202により作成された複数の見え方生成情報213のそれぞれに重み付けを行う評価部204をさらに備え、推定部203は、評価部204による重み付けに応じて、複数の見え方生成情報213の中から推定に用いる見え方生成情報213を選択する。そして、評価部204は、判定部301による判定情報312に応じて当該重み付けを行う。これにより、推定情報214の成績に応じて優先的に用いる見え方生成情報213を選択することができる。   The evaluation unit 204 further weights each of the plurality of appearance generation information 213 generated by the model generation unit 202, and the estimation unit 203 includes a plurality of appearance generation information according to the weighting by the evaluation unit 204. The appearance generation information 213 used for estimation is selected from 213. Then, the evaluation unit 204 performs the weighting according to the determination information 312 by the determination unit 301. Thereby, the appearance generation information 213 used preferentially according to the result of the estimation information 214 can be selected.

<2. 変形例>
以上、本発明の実施の形態について説明してきたが、本発明は上記実施の形態に限定されるものではなく様々な変形が可能である。
<2. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications can be made.

例えば、上記実施の形態に示した各工程は、あくまでも例示であって、上記に示した順序や内容に限定されるものではない。すなわち、同様の効果が得られるならば、適宜、順序や内容が変更されてもよい。   For example, each process shown in the above embodiment is merely an example, and is not limited to the order and contents shown above. That is, as long as the same effect can be obtained, the order and contents may be changed as appropriate.

また、上記実施の形態に示した機能ブロック(例えば、推定部203や評価部204、判定部301など)は、CPU20,30がプログラム210,310に従って動作することにより、ソフトウェア的に実現されると説明した。しかし、これらの機能ブロックの一部または全部を専用の論理回路で構成し、ハードウェア的に実現してもよい。   In addition, the functional blocks (for example, the estimation unit 203, the evaluation unit 204, the determination unit 301, etc.) described in the above embodiment are realized in software when the CPUs 20 and 30 operate according to the programs 210 and 310. explained. However, some or all of these functional blocks may be configured by a dedicated logic circuit and realized in hardware.

また、アーム部34によって物体8が把持されているか否かを検出する手法は、対物センサ35による手法に限定されるものではない。例えば、撮像部36がアーム部34を撮像し、撮像情報311を画像解析して物体8が正常に把持されているか否かを判定してもよい。あるいは、アーム部34に接触センサを設けて、アーム部34が物体8に接触し続けているか否かを検出することにより物体8が把持されているか否かを判定することも可能である。また、物体8が正常に把持されていれば、物体8はアーム部34によって移動され、当該場所に物体8は存在しなくなる。したがって、物体8が載置されていた場所に物体8が存在し続けているか否かによってアーム部34が物体8を把持することができたか否かを判定してもよい。   Further, the method for detecting whether or not the object 8 is gripped by the arm unit 34 is not limited to the method using the objective sensor 35. For example, the imaging unit 36 may image the arm unit 34 and perform image analysis on the imaging information 311 to determine whether or not the object 8 is normally held. Alternatively, it is possible to determine whether or not the object 8 is gripped by providing a contact sensor in the arm unit 34 and detecting whether or not the arm unit 34 continues to contact the object 8. Further, if the object 8 is normally gripped, the object 8 is moved by the arm unit 34 and the object 8 does not exist at the place. Therefore, it may be determined whether or not the arm unit 34 can grip the object 8 depending on whether or not the object 8 continues to exist at the place where the object 8 is placed.

また、運搬ロボット3が物体8を支持する方法は、把持に限定されるものではない。例えば、吸着であってもよい。吸着は、アーム部34の先端付近に吸着口を形成し、コンプレッサー等で空気を吸着口から内部に吸い込むことにより物体8を支持する方法である。吸着の場合は、吸着に適した部分を探索するために姿勢推定が必要であるものの、把持に比べて姿勢の自由度は高く、姿勢推定の精度が低くても適用可能である。   Further, the method by which the transport robot 3 supports the object 8 is not limited to gripping. For example, adsorption may be used. Suction is a method of supporting the object 8 by forming a suction port near the tip of the arm portion 34 and sucking air into the interior from the suction port with a compressor or the like. In the case of suction, posture estimation is required to search for a portion suitable for suction, but the posture is more flexible than gripping and can be applied even if posture estimation accuracy is low.

また、上記実施の形態では、詳細な三次元の情報であるCADデータは必要ないと説明したが、すでに基準物体7に関するCADデータが存在するのであれば、これを三次元形状情報211の代わりに用いてもよい。   Further, in the above embodiment, it has been described that CAD data that is detailed three-dimensional information is not necessary. However, if CAD data relating to the reference object 7 already exists, this is used instead of the three-dimensional shape information 211. It may be used.

また、上記実施の形態では、制御装置2と運搬ロボット3とが別々の装置を構成しており、互いにネットワーク9によって接続されていた。しかし、制御装置2と運搬ロボット3とが一体的な装置を構成していてもよい。あるいは、制御装置2が2以上のコンピュータによって構成されていてもよい。   Moreover, in the said embodiment, the control apparatus 2 and the conveyance robot 3 comprised the separate apparatus, and were mutually connected by the network 9. FIG. However, the control device 2 and the transport robot 3 may constitute an integrated device. Alternatively, the control device 2 may be configured by two or more computers.

また、上記実施の形態では、一度、二次元画像情報212の作成に用いられた三次元形状情報211を削除せずに記録しておくこともできると説明した。このように過去の三次元形状情報211を記録している場合には、これを再利用してもよい。例えば、運搬ロボット3が物体8を正常に把持できなかった場合において、計測により新たな三次元形状情報211を取得するのではなく、記録されている過去の三次元形状情報211に基づいて、従来に比べて観測方向を増やして(観測方向のずれ角θを小さくして)二次元画像情報212を作成してもよい。これにより、1セットの画像情報に含まれる二次元画像情報212の数が増え、観測方向に関するピッチが細かくなる。このようにして作成された1セットの画像情報(二次元画像情報212)から新たな見え方生成情報213を作成して、再度、姿勢推定を行ってもよい。   In the above embodiment, it has been described that the 3D shape information 211 used to create the 2D image information 212 can be recorded without being deleted. When past three-dimensional shape information 211 is recorded in this way, it may be reused. For example, when the transport robot 3 cannot normally grip the object 8, instead of acquiring new three-dimensional shape information 211 by measurement, based on the past three-dimensional shape information 211 recorded, The two-dimensional image information 212 may be created by increasing the observation direction (decreasing the deviation angle θ in the observation direction). As a result, the number of two-dimensional image information 212 included in one set of image information increases, and the pitch related to the observation direction becomes fine. New appearance generation information 213 may be created from the set of image information (two-dimensional image information 212) created in this way, and posture estimation may be performed again.

1 姿勢推定システム
2 制御装置
20 CPU
20,30 CPU
200 計測制御部
201 疑似画像作成部
202 モデル作成部
203 推定部
204 評価部
21,31 記憶装置
210,310 プログラム
211 三次元形状情報
212 二次元画像情報
213 見え方生成情報
214 推定情報
215 評価情報
22,32 操作部
23,33 表示部
24 計測台
240 載置板
241 載置板
25 ステッピングモータ
26 計測部
27 通信部
3 運搬ロボット
300 アーム制御部
301 判定部
311 撮像情報
312 判定情報
34 アーム部
35 対物センサ
36 撮像部
37 通信部
7 基準物体
8 物体
9 ネットワーク
1 posture estimation system 2 control device 20 CPU
20,30 CPU
DESCRIPTION OF SYMBOLS 200 Measurement control part 201 Pseudo-image creation part 202 Model creation part 203 Estimation part 204 Evaluation part 21,31 Storage device 210,310 Program 211 Three-dimensional shape information 212 Two-dimensional image information 213 Appearance generation information 214 Estimation information 215 Evaluation information 22 , 32 Operation unit 23, 33 Display unit 24 Measuring table 240 Mounting plate 241 Mounting plate 25 Stepping motor 26 Measuring unit 27 Communication unit 3 Transport robot 300 Arm control unit 301 Determination unit 311 Imaging information 312 Determination information 34 Arm unit 35 Objective Sensor 36 Imaging unit 37 Communication unit 7 Reference object 8 Object 9 Network

Claims (7)

一の計測方向から基準物体を測定することにより前記基準物体の前記一の計測方向に対応する三次元形状情報を取得する計測手段と、
前記計測手段により取得された三次元形状情報に基づいて、前記基準物体を観測方向から擬似的に捉えた二次元画像情報を、互いに異なる複数の前記観測方向のそれぞれについて作成する疑似画像作成手段と、
前記疑似画像作成手段により作成された二次元画像情報を学習素材として見え方生成情報を作成するモデル作成手段と、
前記モデル作成手段により作成された見え方生成情報を予め記憶する記憶手段と、
前記基準物体によって代表される物体を撮像して撮像画像を取得する撮像手段と、
前記記憶手段により記憶された見え方生成情報と前記撮像手段により取得された撮像画像とに基づいて、前記物体の姿勢を推定する推定手段と、
を備える姿勢推定システム。
Measuring means for acquiring three-dimensional shape information corresponding to the one measurement direction of the reference object by measuring the reference object from one measurement direction;
Based on the three-dimensional shape information acquired by the measurement means, pseudo-image creation means for creating two-dimensional image information obtained by simulating the reference object from the observation direction for each of a plurality of different observation directions ,
Model creation means for creating appearance generation information using the two-dimensional image information created by the pseudo image creation means as a learning material;
Storage means for storing in advance the appearance generation information created by the model creating means;
Imaging means for capturing an image represented by the reference object and acquiring a captured image;
Estimation means for estimating the posture of the object based on the appearance generation information stored by the storage means and the captured image acquired by the imaging means;
A posture estimation system comprising:
請求項1に記載の姿勢推定システムであって、
前記推定手段による推定結果の適否を判定する判定手段をさらに備え、
前記モデル作成手段は、前記判定手段による判定結果に応じて、新たな見え方生成情報を作成する姿勢推定システム。
The posture estimation system according to claim 1,
A determination unit for determining whether the estimation result by the estimation unit is appropriate;
The model creation unit is a posture estimation system that creates new appearance generation information according to a determination result by the determination unit.
請求項2に記載の姿勢推定システムであって、
前記物体を把持する把持手段をさらに備え、
前記判定手段は、前記把持手段により前記物体を把持することができたか否かに応じて、前記推定結果の適否を判定する姿勢推定システム。
The posture estimation system according to claim 2,
It further comprises gripping means for gripping the object,
The posture estimation system in which the determination unit determines whether the estimation result is appropriate according to whether or not the object can be gripped by the gripping unit.
請求項2または3に記載の姿勢推定システムであって、
前記モデル作成手段により作成された複数の見え方生成情報のそれぞれに重み付けを行う評価手段をさらに備え、
前記推定手段は、前記評価手段による重み付けに応じて、前記複数の見え方生成情報の中から推定に用いる見え方生成情報を選択する姿勢推定システム。
The posture estimation system according to claim 2 or 3,
Further comprising an evaluation means for weighting each of the plurality of appearance generation information created by the model creation means,
The estimation means is a posture estimation system that selects appearance generation information used for estimation from the plurality of appearance generation information according to weighting by the evaluation means.
請求項4に記載の姿勢推定システムであって、
前記評価手段は、前記判定手段による判定結果に応じて前記重み付けを行う姿勢推定システム。
The posture estimation system according to claim 4,
The posture estimation system in which the evaluation unit performs the weighting according to a determination result by the determination unit.
コンピュータ読み取り可能なプログラムであって、前記コンピュータによって実行されることにより、前記コンピュータを、
一の計測方向から基準物体を測定することにより前記基準物体の前記一の計測方向に対応する三次元形状情報を取得する計測手段と、
前記計測手段により取得された三次元形状情報に基づいて、前記基準物体を観測方向から擬似的に捉えた二次元画像情報を、互いに異なる複数の前記観測方向のそれぞれについて作成する疑似画像作成手段と、
前記疑似画像作成手段により作成された二次元画像情報を学習素材として見え方生成情報を作成するモデル作成手段と、
前記モデル作成手段により作成された見え方生成情報を予め記憶する記憶手段と、
前記基準物体によって代表される物体を撮像して撮像画像を取得する撮像手段と、
前記記憶手段により記憶された見え方生成情報と前記撮像手段により取得された撮像画像とに基づいて、前記物体の姿勢を推定する推定手段と、
を備える姿勢推定システムとして機能させるプログラム。
A computer-readable program that is executed by the computer to cause the computer to
Measuring means for acquiring three-dimensional shape information corresponding to the one measurement direction of the reference object by measuring the reference object from one measurement direction;
Based on the three-dimensional shape information acquired by the measurement means, pseudo-image creation means for creating two-dimensional image information obtained by simulating the reference object from the observation direction for each of a plurality of observation directions different from each other; ,
Model creation means for creating appearance generation information using the two-dimensional image information created by the pseudo image creation means as a learning material;
Storage means for storing in advance the appearance generation information created by the model creating means;
Imaging means for capturing an image represented by the reference object and acquiring a captured image;
Estimation means for estimating the posture of the object based on the appearance generation information stored by the storage means and the captured image acquired by the imaging means;
A program for functioning as a posture estimation system.
一の計測方向から基準物体を測定することにより前記基準物体の前記一の計測方向に対応する三次元形状情報を取得する工程と、
取得された前記三次元形状情報に基づいて、前記基準物体を観測方向から擬似的に捉えた二次元画像情報を、互いに異なる複数の前記観測方向のそれぞれについて作成する工程と、
作成された前記二次元画像情報を学習素材として見え方生成情報を作成する工程と、
作成された前記見え方生成情報を予め記憶手段に記憶する工程と、
前記基準物体によって代表される物体を撮像して撮像画像を取得する工程と、
前記記憶手段により記憶された見え方生成情報と取得された撮像画像とに基づいて、前記物体の姿勢を推定する工程と、
を有する姿勢推定方法。
Obtaining three-dimensional shape information corresponding to the one measurement direction of the reference object by measuring the reference object from one measurement direction;
Based on the acquired three-dimensional shape information, creating two-dimensional image information obtained by simulating the reference object from the observation direction for each of a plurality of different observation directions,
Creating appearance generation information using the created two-dimensional image information as a learning material;
Storing the created appearance generation information in a storage means in advance;
Capturing an image represented by the reference object to obtain a captured image;
Estimating the posture of the object based on the appearance generation information stored by the storage means and the acquired captured image;
A posture estimation method comprising:
JP2014043863A 2014-03-06 2014-03-06 Posture estimation system, program, and posture estimation method Active JP6265784B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014043863A JP6265784B2 (en) 2014-03-06 2014-03-06 Posture estimation system, program, and posture estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014043863A JP6265784B2 (en) 2014-03-06 2014-03-06 Posture estimation system, program, and posture estimation method

Publications (2)

Publication Number Publication Date
JP2015169515A true JP2015169515A (en) 2015-09-28
JP6265784B2 JP6265784B2 (en) 2018-01-24

Family

ID=54202379

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014043863A Active JP6265784B2 (en) 2014-03-06 2014-03-06 Posture estimation system, program, and posture estimation method

Country Status (1)

Country Link
JP (1) JP6265784B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018092449A (en) * 2016-12-05 2018-06-14 株式会社ソニー・インタラクティブエンタテインメント System, jig, information processing apparatus, information processing method, and program
JP2020110911A (en) * 2019-01-08 2020-07-27 本田技研工業株式会社 Depth perception modeling for grasping object
KR20220116940A (en) * 2021-02-16 2022-08-23 네이버랩스 주식회사 Learning data collection system and method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61262986A (en) * 1985-05-17 1986-11-20 Fujitsu Ltd Producing device for seeming dictionary of cube
JP2000293695A (en) * 1999-04-08 2000-10-20 Fanuc Ltd Picture processor
JP2006026790A (en) * 2004-07-15 2006-02-02 Fanuc Ltd Teaching model production device
JP2007245283A (en) * 2006-03-15 2007-09-27 Nissan Motor Co Ltd Workpiece attitude detecting device, workpiece attitude detecting method, picking system, and picking method
JP2010020487A (en) * 2008-07-09 2010-01-28 Nippon Hoso Kyokai <Nhk> Optional viewpoint video generation device and optional viewpoint video generation program
JP2010112729A (en) * 2008-11-04 2010-05-20 Omron Corp Method of creating three-dimensional model, and object recognition device
JP2013217893A (en) * 2012-03-13 2013-10-24 Canon Inc Model generation device, position posture estimation device, information processor, model generation method, position posture estimation method, information processing method
US20130338826A1 (en) * 2010-12-30 2013-12-19 Zenrobotics Oy Method, computer program and apparatus for determining a gripping location

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61262986A (en) * 1985-05-17 1986-11-20 Fujitsu Ltd Producing device for seeming dictionary of cube
JP2000293695A (en) * 1999-04-08 2000-10-20 Fanuc Ltd Picture processor
JP2006026790A (en) * 2004-07-15 2006-02-02 Fanuc Ltd Teaching model production device
JP2007245283A (en) * 2006-03-15 2007-09-27 Nissan Motor Co Ltd Workpiece attitude detecting device, workpiece attitude detecting method, picking system, and picking method
JP2010020487A (en) * 2008-07-09 2010-01-28 Nippon Hoso Kyokai <Nhk> Optional viewpoint video generation device and optional viewpoint video generation program
JP2010112729A (en) * 2008-11-04 2010-05-20 Omron Corp Method of creating three-dimensional model, and object recognition device
US20130338826A1 (en) * 2010-12-30 2013-12-19 Zenrobotics Oy Method, computer program and apparatus for determining a gripping location
JP2013217893A (en) * 2012-03-13 2013-10-24 Canon Inc Model generation device, position posture estimation device, information processor, model generation method, position posture estimation method, information processing method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
K.KAWAMOTO ET AL.: "Visual vehicle tracking based on an appearance generative model", SCIS-ISIS 2012, JPN6017045803, 20 November 2012 (2012-11-20), pages 711 - 714, XP032376163, ISSN: 0003691282, DOI: 10.1109/SCIS-ISIS.2012.6505283 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018092449A (en) * 2016-12-05 2018-06-14 株式会社ソニー・インタラクティブエンタテインメント System, jig, information processing apparatus, information processing method, and program
US11200695B2 (en) 2016-12-05 2021-12-14 Sony Interactive Entertainment Inc. System, jig, information processing device, information processing method, and program
JP7051287B2 (en) 2016-12-05 2022-04-11 株式会社ソニー・インタラクティブエンタテインメント Systems, jigs, and information processing methods
JP2020110911A (en) * 2019-01-08 2020-07-27 本田技研工業株式会社 Depth perception modeling for grasping object
US11185978B2 (en) 2019-01-08 2021-11-30 Honda Motor Co., Ltd. Depth perception modeling for grasping objects
JP7050740B2 (en) 2019-01-08 2022-04-08 本田技研工業株式会社 Depth perception modeling for gripping objects
KR20220116940A (en) * 2021-02-16 2022-08-23 네이버랩스 주식회사 Learning data collection system and method
KR102590730B1 (en) * 2021-02-16 2023-10-19 네이버랩스 주식회사 Learning data collection system and method

Also Published As

Publication number Publication date
JP6265784B2 (en) 2018-01-24

Similar Documents

Publication Publication Date Title
CN112091970B (en) Robotic system with enhanced scanning mechanism
JP2008021092A (en) Simulation apparatus of robot system
CN101927494B (en) Shape detection system
JP5743499B2 (en) Image generating apparatus, image generating method, and program
JP6892286B2 (en) Image processing equipment, image processing methods, and computer programs
JP6331517B2 (en) Image processing apparatus, system, image processing method, and image processing program
JP2019056966A (en) Information processing device, image recognition method and image recognition program
JP2018027581A (en) Picking system
JP2017087326A (en) Robot control device and robot control method
JP2010210584A (en) Three-dimensional visual sensor
JP2013036988A (en) Information processing apparatus and information processing method
WO2020190166A1 (en) Method and system for grasping an object by means of a robotic device
JP6902369B2 (en) Presentation device, presentation method and program, and work system
JP6265784B2 (en) Posture estimation system, program, and posture estimation method
WO2021039775A1 (en) Image processing device, image capturing device, robot, and robot system
JP2020197978A (en) Object detection device, object gripping system, object detection method, and object detection program
JP2018122376A (en) Image processing device, robot control device, and robot
JP2010184300A (en) Attitude changing device and attitude changing method
US11989928B2 (en) Image processing system
JP2020142323A (en) Robot control device, robot control method and robot control program
JP2015132523A (en) Position/attitude measurement apparatus, position/attitude measurement method, and program
CN112743537A (en) Annotating device
JP5862382B2 (en) Work support device
JP2021061014A (en) Learning device, learning method, learning model, detector, and gripping system
TWI788253B (en) Adaptive mobile manipulation apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

R150 Certificate of patent or registration of utility model

Ref document number: 6265784

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250