JP2020107142A - Recognition method, recognition system, robot control method, robot control system, robot system, recognition program, and robot control program - Google Patents

Recognition method, recognition system, robot control method, robot control system, robot system, recognition program, and robot control program Download PDF

Info

Publication number
JP2020107142A
JP2020107142A JP2018246282A JP2018246282A JP2020107142A JP 2020107142 A JP2020107142 A JP 2020107142A JP 2018246282 A JP2018246282 A JP 2018246282A JP 2018246282 A JP2018246282 A JP 2018246282A JP 2020107142 A JP2020107142 A JP 2020107142A
Authority
JP
Japan
Prior art keywords
recognition
robot
feature
target object
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018246282A
Other languages
Japanese (ja)
Other versions
JP7253731B2 (en
Inventor
智隆 西本
Tomotaka Nishimoto
智隆 西本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018246282A priority Critical patent/JP7253731B2/en
Publication of JP2020107142A publication Critical patent/JP2020107142A/en
Application granted granted Critical
Publication of JP7253731B2 publication Critical patent/JP7253731B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

To bring less occurrence in fluctuating time required until a subject 51 is recognized among a plurality of types of articles 5.SOLUTION: A recognition method includes first recognition processing and second recognition processing. The first recognition processing recognizes a first characteristic of a subject 51 from image data including the subject 51. In the second recognition processing, a plurality of recognition means 121 corresponding to characteristics of a plurality of types of articles 5 that may be the subject 51 is prepared. The second recognition processing selects, in accordance with at least the first characteristic recognized in the first recognition processing, one piece of recognition means 121 from the plurality of recognition means 121, for recognizing a second characteristic of the subject 51 by the one recognition means 121.SELECTED DRAWING: Figure 1

Description

本開示は、一般に認識方法、認識システム、ロボット制御方法、ロボット制御システム、ロボットシステム、認識プログラム、及びロボット制御プログラムに関する。より詳細には、本開示は、画像データから対象物を認識する認識方法、認識システム、ロボット制御方法、ロボット制御システム、ロボットシステム、認識プログラム、及びロボット制御プログラムに関する。 The present disclosure generally relates to a recognition method, a recognition system, a robot control method, a robot control system, a robot system, a recognition program, and a robot control program. More specifically, the present disclosure relates to a recognition method, a recognition system, a robot control method, a robot control system, a robot system, a recognition program, and a robot control program for recognizing an object from image data.

特許文献1に記載のランダムピッキングシステムは、ロボットアームの先端に設けられたハンドにより、バラ積みされたワークを把持し取り出す装置である。ランダムピッキングシステムは、バラ積みされたワークを撮像する撮像装置と、バラ積みされたワークの画像データを基に、パターンマッチングを行って把持するワークを選出するワーク認識装置と、を含む。 The random picking system described in Patent Document 1 is a device that grips and takes out workpieces that have been piled up in bulk by a hand provided at the tip of a robot arm. The random picking system includes an image pickup device for picking up images of randomly stacked works, and a work recognition device for performing pattern matching and selecting a work to be held based on image data of the randomly stacked works.

特開2017−170567号公報JP, 2017-170567, A

特許文献1に記載のランダムピッキングシステムでは、複数種類のワーク(物品)から特定のワーク(対象物)を認識する場合、複数種類のワークごとにパターンマッチングを行わなければならない。このため、ランダムピッキングシステムでは、複数種類のワークから特定のワークを認識する場合に、特定のワークを認識するまでに要する時間にばらつきが生じやすい、という問題があった。 In the random picking system described in Patent Document 1, when recognizing a specific work (object) from a plurality of types of works (articles), pattern matching must be performed for each of the plurality of types of works. Therefore, in the random picking system, when recognizing a specific work from a plurality of types of work, there is a problem that the time required to recognize the specific work tends to vary.

本開示は、複数種類の物品から対象物を認識するまでに要する時間のばらつきが生じにくい認識方法、認識システム、ロボット制御方法、ロボット制御システム、ロボットシステム、認識プログラム、及びロボット制御プログラムを提供することを目的とする。 The present disclosure provides a recognition method, a recognition system, a robot control method, a robot control system, a robot system, a recognition program, and a robot control program in which variations in time required to recognize an object from a plurality of types of articles are unlikely to occur. The purpose is to

本開示の一態様に係る認識方法は、第1認識処理と、第2認識処理と、を含む。前記第1認識処理は、対象物を含む画像データから前記対象物の第1特徴を認識する。前記第2認識処理では、前記対象物となり得る複数種類の物品の特徴に対応した複数の認識手段が用意される。前記第2認識処理は、少なくとも前記第1認識処理において認識された前記第1特徴に応じて、前記複数の認識手段から一の認識手段を選択し、前記一の認識手段により前記対象物の第2特徴を認識する。 A recognition method according to an aspect of the present disclosure includes a first recognition process and a second recognition process. The first recognition processing recognizes the first feature of the object from the image data including the object. In the second recognition processing, a plurality of recognition means corresponding to the characteristics of the plurality of types of articles that can be the target object are prepared. The second recognition processing selects one recognition means from the plurality of recognition means according to at least the first feature recognized in the first recognition processing, and the one recognition means selects one of 2 Recognize features.

本開示の一態様に係る認識システムは、第1認識部と、第2認識部と、を備える。前記第1認識部は、対象物を含む画像データから前記対象物の第1特徴を認識する。前記第2認識部では、前記対象物となり得る複数種類の物品の特徴に対応した複数の認識手段が用意される。前記第2認識部は、少なくとも前記第1認識部において認識された前記第1特徴に応じて、前記複数の認識手段から一の認識手段を選択し、前記一の認識手段により前記対象物の第2特徴を認識する。 A recognition system according to one aspect of the present disclosure includes a first recognition unit and a second recognition unit. The first recognition unit recognizes the first feature of the target object from the image data including the target object. The second recognition unit is provided with a plurality of recognition means corresponding to the characteristics of a plurality of types of articles that can be the target. The second recognizing unit selects one recognizing unit from the plurality of recognizing units in accordance with at least the first feature recognized by the first recognizing unit, and the one recognizing unit identifies the first object 2 Recognize features.

本開示の一態様に係るロボット制御方法は、上記の認識方法により認識された前記対象物の前記第1特徴及び前記第2特徴に基づいて、前記対象物をピッキングするロボットを制御する。 A robot control method according to an aspect of the present disclosure controls a robot that picks an object based on the first feature and the second feature of the object recognized by the recognition method.

本開示の一態様に係るロボット制御システムは、前記対象物をピッキングするロボットを制御する制御部を備える。前記制御部は、上記の認識方法により認識された前記対象物の前記第1特徴及び前記第2特徴に基づいて、前記ロボットを制御する。 A robot control system according to an aspect of the present disclosure includes a control unit that controls a robot that picks the object. The control unit controls the robot based on the first feature and the second feature of the target object recognized by the recognition method.

本開示の一態様に係るロボットシステムは、上記の前記対象物をピッキングするロボットと、ロボットを制御する制御部と、を備える。前記制御部は、上記の認識方法により認識された前記対象物の前記第1特徴及び前記第2特徴に基づいて、前記ロボットを制御する。 A robot system according to an aspect of the present disclosure includes a robot that picks the above-described object, and a control unit that controls the robot. The control unit controls the robot based on the first feature and the second feature of the target object recognized by the recognition method.

本開示の一態様に係る認識プログラムは、1以上のプロセッサに、上記の認識方法を実行させるためのプログラムである。 A recognition program according to an aspect of the present disclosure is a program for causing one or more processors to execute the above recognition method.

本開示の一態様に係るロボット制御プログラムは、1以上のプロセッサに、上記のロボット制御方法を実行させるためのプログラムである。 A robot control program according to an aspect of the present disclosure is a program for causing one or more processors to execute the above robot control method.

本開示は、複数種類の物品から対象物を認識するまでに要する時間のばらつきが生じにくい、という利点がある。 The present disclosure has an advantage that variations in the time required to recognize an object from a plurality of types of articles are unlikely to occur.

図1は、本開示の一実施形態に係る読取方法を実行する際に用いられる認識システム、ロボット制御方法を実行する際に用いられるロボット制御システム、及びロボットシステムの構成を示す概要図である。FIG. 1 is a schematic diagram showing a configuration of a recognition system used when executing a reading method according to an embodiment of the present disclosure, a robot control system used when executing a robot control method, and a robot system. 図2は、同上の認識システムが適用される複数種類の部品が収容された箱を撮像した画像データの一例を示す概要図である。FIG. 2 is a schematic diagram showing an example of image data obtained by imaging a box containing a plurality of types of parts to which the above recognition system is applied. 図3は、同上の認識システムの第1認識処理の一例の説明図である。FIG. 3 is an explanatory diagram of an example of a first recognition process of the above recognition system. 図4は、同上の認識システムの第2認識処理の一例の説明図である。FIG. 4 is an explanatory diagram of an example of a second recognition process of the above recognition system. 図5は、同上の認識システム及びロボット制御システムでの動作を示すフローチャートである。FIG. 5: is a flowchart which shows operation|movement in the recognition system and robot control system same as the above.

(1)概要
本実施形態の認識方法を実行する際に用いられる認識システム10は、図1に示すように、例えばロボット制御システム100に適用される。ロボット制御システム100は、対象物51をピッキングするロボット(マニピュレータ)3を制御する制御部13を備える。ロボット制御システム100は、例えば工場又は物流センター等に導入され、人の作業をロボット3で代替する場合に用いられる。本開示でいう「対象物」は、複数種類の物品5のうち、ロボット3が取り扱う物品5のことをいう。対象物51は、ロボット3による作業の進行にしたがって、時々刻々と変化する。例えば、基板7の組み立て工程においては、ロボット3が制御部13から順次与えられる指令に応じた部品をピッキングして基板7に組み込む作業を行うので、対象物51は、指令に応じて異なることになる。本開示でいう「基板に組み込む」とは、例えばリード部品の端子を基板7のスルーホールへ挿入したり、フラットケーブルのコネクタを基板7上のコネクタに接続したり等、部品を基板7に保持又は仮保持させることをいう。
(1) Outline The recognition system 10 used when executing the recognition method of the present embodiment is applied to, for example, a robot control system 100 as shown in FIG. The robot control system 100 includes a control unit 13 that controls a robot (manipulator) 3 that picks an object 51. The robot control system 100 is installed in, for example, a factory or a distribution center, and is used when the robot 3 replaces human work. The “object” in the present disclosure refers to an article 5 handled by the robot 3 among a plurality of types of articles 5. The target object 51 changes every moment as the work performed by the robot 3 progresses. For example, in the process of assembling the board 7, since the robot 3 performs a work of picking up components according to the command sequentially given from the control unit 13 and incorporating the parts into the board 7, the target object 51 is different depending on the command. Become. “Incorporating into a board” in the present disclosure means holding a part on the board 7 such as inserting a terminal of a lead part into a through hole of the board 7 or connecting a connector of a flat cable to a connector on the board 7. Or, it means temporarily holding.

本開示でいう複数種類の物品5の「種類」とは、例えば物品5の品種、物品5の形状、物品5のサイズ、物品5の模様、物品5における色彩の分布、又は物品5における輝度の分布等である。一例として、物品5が基板7に組み込む部品であれば、物品5の品種とは、コンデンサ、抵抗器、インダクタ、スイッチ、又はIC(Integrated Circuit)チップ等の物品5の固有の機能により分類される区分である。つまり、「複数種類の物品」は、互いに品種が異なる複数の物品5を含む他に、同じ品種であって形状、サイズ、又は模様が互いに異なる複数の物品5を含み得る。本実施形態では、例えば2つの物品5が互いに同じコンデンサであっても、容量値が異なる場合には、2つの物品5の種類が互いに異なるとする。 The “type” of the plurality of types of articles 5 in the present disclosure refers to, for example, the type of the article 5, the shape of the article 5, the size of the article 5, the pattern of the article 5, the color distribution of the article 5, or the brightness of the article 5. Distribution etc. As an example, if the article 5 is a component to be incorporated in the substrate 7, the type of the article 5 is classified according to the unique function of the article 5, such as a capacitor, a resistor, an inductor, a switch, or an IC (Integrated Circuit) chip. It is a division. That is, the “plurality of types of articles” may include, in addition to the plurality of articles 5 of different types, a plurality of articles 5 of the same type but different in shape, size, or pattern. In the present embodiment, for example, even if the two articles 5 are the same capacitor, if the capacitance values are different, the types of the two articles 5 are different from each other.

本開示でいう「ピッキング」は、複数種類の物品5から対象物51を選択して取り出す作業をいう。一例として、ロボット制御システム100が物流センターに導入される場合には、ピッキングは、物流センターに置かれている複数種類の物品から搬送する対象物51を選択して取り出す作業をいう。また、一例として、ロボット制御システム100が基板7の組み立て工場に導入される場合には、ピッキングは、工場内にある複数種類の部品(物品5)が収容されている箱6から、基板7へ組み込む部品(対象物51)を選択して取り出す作業をいう。 “Picking” as referred to in the present disclosure means an operation of selecting and taking out the target object 51 from a plurality of types of articles 5. As an example, when the robot control system 100 is installed in a distribution center, picking refers to a work of selecting and picking up an object 51 to be conveyed from a plurality of types of articles placed in the distribution center. In addition, as an example, when the robot control system 100 is installed in a factory for assembling the board 7, the picking is performed from the box 6 in which a plurality of types of parts (articles 5) in the factory are accommodated to the board 7. This is a work of selecting and taking out a part (object 51) to be incorporated.

本実施形態の認識方法(認識システム10)は、複数種類の物品5から対象物51を認識するために用いられる。認識方法は、第1認識処理と、第2認識処理と、を含む。認識システム10は、図1に示すように、第1認識部11と、第2認識部12と、を備えている。 The recognition method (recognition system 10) of the present embodiment is used to recognize an object 51 from a plurality of types of articles 5. The recognition method includes a first recognition process and a second recognition process. As shown in FIG. 1, the recognition system 10 includes a first recognition unit 11 and a second recognition unit 12.

第1認識処理(第1認識部11)は、対象物51を含む画像データD1から対象物51の第1特徴を認識する。本実施形態では、画像データD1は、撮像部4(後述する)が箱6の上方から箱6を撮像することで得られる、箱6の2次元画像である。箱6には、対象物51を含む複数種類の物品5が収容される。また、本実施形態では、対象物51の第1特徴は、対象物51の種類(つまり、対象物51の品種、形状、サイズ、模様、対象物51における色彩の分布、又は対象物51における輝度の分布等)と、画像データD1における対象物51の位置である。 The first recognition process (first recognition unit 11) recognizes the first feature of the object 51 from the image data D1 including the object 51. In the present embodiment, the image data D1 is a two-dimensional image of the box 6 obtained by the imaging unit 4 (described later) imaging the box 6 from above the box 6. The box 6 stores a plurality of types of articles 5 including the target object 51. Further, in the present embodiment, the first feature of the target object 51 is the type of the target object 51 (that is, the type, shape, size, pattern of the target object 51, the distribution of colors in the target object 51, or the brightness of the target object 51). And the position of the object 51 in the image data D1.

第2認識処理(第2認識部12)では、対象物51となり得る複数種類の物品5の特徴に対応した複数の認識手段121が用意されている。本開示でいう「認識手段」は、例えばパターンマッチング、形状検出(一例として、コーナー検出、又はエッジ検出)等、対象物51の特徴(ここでは、第2特徴)を認識するための認識アルゴリズムを含み得る。また、本開示でいう「認識手段」は、例えばパターンマッチング等の1つの認識アルゴリズムにて用いられる、対象物51の特徴(ここでは、第2特徴)を認識するためのテンプレートT1を含み得る。 In the second recognition processing (second recognition unit 12), a plurality of recognition means 121 corresponding to the characteristics of the plurality of types of articles 5 that can be the target object 51 are prepared. The “recognition unit” in the present disclosure is a recognition algorithm for recognizing the feature (here, the second feature) of the object 51 such as pattern matching, shape detection (corner detection or edge detection as an example), and the like. May be included. In addition, the “recognition unit” in the present disclosure may include a template T1 used for one recognition algorithm such as pattern matching, for recognizing a feature (here, second feature) of the target object 51.

そして、第2認識処理(第2認識部12)は、少なくとも第1認識処理(第1認識部11)において認識された第1特徴に応じて、複数の認識手段121から一の認識手段121を選択し、一の認識手段121により対象物51の第2特徴を認識する。本実施形態では、対象物51の第2特徴は、画像データD1における対象物51の姿勢(向きを含む)である。 Then, the second recognition process (second recognition unit 12) selects one recognition unit 121 from the plurality of recognition units 121 according to at least the first feature recognized in the first recognition process (first recognition unit 11). Then, the second recognizing means 121 recognizes the second feature of the object 51. In the present embodiment, the second feature of the target object 51 is the posture (including the orientation) of the target object 51 in the image data D1.

つまり、第2認識処理(第2認識部12)は、例えば対象物51の種類に応じて、複数の認識アルゴリズムから一の認識アルゴリズムを選択する。そして、第2認識処理(第2認識部12)は、選択した認識アルゴリズムにより対象物51の第2特徴を認識する。また、第2認識処理(第2認識部12)は、例えば対象物51の種類に応じて、複数のテンプレートT1から一のテンプレートT1を選択する。そして、第2認識処理(第2認識部12)は、選択したテンプレートT1を用いた認識アルゴリズム(例えば、パターンマッチング)により対象物51の第2特徴を認識する。そして、ロボット制御システム100の制御部13は、上述の認識方法により認識された対象物51の第1特徴及び第2特徴に基づいて、ロボット3を制御する。 That is, the second recognition process (second recognition unit 12) selects one recognition algorithm from a plurality of recognition algorithms according to the type of the target object 51, for example. Then, the second recognition process (second recognition unit 12) recognizes the second feature of the target object 51 by the selected recognition algorithm. Further, the second recognition processing (second recognition unit 12) selects one template T1 from the plurality of templates T1 according to the type of the target object 51, for example. Then, the second recognition process (second recognition unit 12) recognizes the second feature of the target object 51 by a recognition algorithm (for example, pattern matching) using the selected template T1. Then, the control unit 13 of the robot control system 100 controls the robot 3 based on the first feature and the second feature of the target object 51 recognized by the above-described recognition method.

上述のように、本実施形態では、第1認識処理(第1認識部11)にて対象物51の第1特徴を認識することから、第2認識処理(第2認識部12)では第1特徴を踏まえて第2特徴のみを認識すればよい。このため、本実施形態では、第2認識処理のみで対象物51の第1特徴及び第2特徴を認識する場合と比較して、対象物51ごとに第2認識処理で要する時間がばらつきにくい。その結果、本実施形態では、複数種類の物品5から対象物51を認識するまでに要する時間のばらつきが生じにくい、という利点がある。 As described above, in the present embodiment, the first recognition process (first recognition unit 11) recognizes the first feature of the target object 51, so that the second recognition process (second recognition unit 12) performs the first feature. Only the second feature needs to be recognized based on the features. Therefore, in the present embodiment, compared with the case of recognizing the first feature and the second feature of the target object 51 only by the second recognition process, the time required for the second recognition process for each target object 51 is less likely to vary. As a result, in the present embodiment, there is an advantage that variations in the time required to recognize the target object 51 from the plurality of types of articles 5 are unlikely to occur.

(2)詳細
以下、本実施形態の認識システム10及びロボット制御システム100について図1及び図2を参照して詳しく説明する。本実施形態では、認識システム10は、ロボット制御システム100に組み込まれていることとして説明するが、ロボット制御システム100とは別のシステムとして構成されていてもよい。また、本実施形態では、ロボット制御システム100が基板7の組み立て工場に導入されていると仮定する。そして、本実施形態では、ロボット3は、基板7へ組み込む部品をピッキングすると仮定する。
(2) Details Hereinafter, the recognition system 10 and the robot control system 100 of the present embodiment will be described in detail with reference to FIGS. 1 and 2. In the present embodiment, the recognition system 10 is described as being incorporated in the robot control system 100, but may be configured as a system different from the robot control system 100. In addition, in the present embodiment, it is assumed that the robot control system 100 is installed in a board 7 assembly factory. Then, in the present embodiment, it is assumed that the robot 3 picks a component to be incorporated in the substrate 7.

また、本実施形態では、ロボット制御システム100が1台のロボット3を制御すると仮定するが、ロボット制御システム100は、複数台のロボット3を制御してもよい。そして、本実施形態では、認識システム10は、複数種類の物品5が収容された1つの箱6から対象物51を認識すると仮定するが、認識システム10は、複数の箱6から対象物51を認識してもよい。 Further, in the present embodiment, it is assumed that the robot control system 100 controls one robot 3, but the robot control system 100 may control a plurality of robots 3. Then, in the present embodiment, it is assumed that the recognition system 10 recognizes the target object 51 from the single box 6 accommodating the plurality of types of articles 5, but the recognition system 10 recognizes the target object 51 from the multiple boxes 6. You may recognize.

(2.1)ロボット
まず、ロボット3について説明する。ロボット3は、図1に示すように、アーム31と、ハンド32と、撮像部4と、を備えている。本実施形態では、ロボット3は、工場内における所定の場所に固定されているが、例えばレール上を移動可能に構成されていたり、車輪により自律走行するように構成されていたりしてもよい。また、ロボット3は、ロボット制御システム100の通信部2(後述する)との間で通信するための通信インタフェースを更に備えている。
(2.1) Robot First, the robot 3 will be described. As shown in FIG. 1, the robot 3 includes an arm 31, a hand 32, and an imaging unit 4. In the present embodiment, the robot 3 is fixed at a predetermined place in the factory, but may be configured to be movable on a rail or to be autonomously driven by wheels. The robot 3 further includes a communication interface for communicating with the communication unit 2 (described later) of the robot control system 100.

アーム31は、多関節のロボットアームであり、所定の範囲内を移動可能に構成されている。本実施形態では、所定の範囲には、少なくとも箱6から対象物51を取り出すことが可能な領域と、基板7に対象物51を組み込むことが可能な領域と、複数種類のハンド32が収容されたハンド用の箱からハンド32を取り出すことが可能な領域と、が含まれる。 The arm 31 is a multi-joint robot arm and is configured to be movable within a predetermined range. In the present embodiment, at least a region where the target object 51 can be taken out of the box 6, a region where the target object 51 can be incorporated in the substrate 7, and a plurality of types of hands 32 are accommodated in the predetermined range. And a region where the hand 32 can be taken out from the box for the other hand.

ハンド32は、アーム31の先端に取り付けられており、対象物51を挟み込むことにより、対象物51を箱6から取り出すように構成されている。ハンド32は、対象物51を保持することが可能な態様であればよく、対象物51を挟み込む態様の他に、例えば対象物51をノズルにより吸着する態様であってもよい。本実施形態では、アーム31の先端には、複数種類のハンド32から選択された一のハンド32を取り付けることが可能である。ロボット3は、制御部13(後述する)からの指令に応じて、ハンド用の箱から一のハンド32を選択して取り付ける作業を実行する。既にアーム31の先端にハンド32が取り付けられている場合は、ロボット3は、取り付けられているハンド32と、指令に応じたハンド32とを交換する作業を実行する。 The hand 32 is attached to the tip of the arm 31, and is configured to take out the target object 51 from the box 6 by sandwiching the target object 51. The hand 32 only needs to be a mode capable of holding the target object 51, and may be, for example, a mode in which the target object 51 is sucked by a nozzle in addition to the mode in which the target object 51 is sandwiched. In this embodiment, one hand 32 selected from a plurality of types of hands 32 can be attached to the tip of the arm 31. The robot 3 executes the work of selecting and attaching one hand 32 from the hand box in accordance with a command from the control unit 13 (described later). When the hand 32 is already attached to the tip of the arm 31, the robot 3 executes the work of exchanging the attached hand 32 and the hand 32 according to the command.

撮像部4は、例えばCCD(Charge-Coupled Device)イメージセンサ等の固体撮像素子を有する。本実施形態では、撮像部4は、ロボット3のアーム31の先端に取り付けられている。撮像部4は、制御部13からの指令に応じて箱6の上方から箱6を撮像することにより、箱6に収容されている複数種類の物品5を撮像する。つまり、撮像部4は、少なくとも箱6の開口全体を撮像範囲とする。撮像部4で撮像されることで得られる画像データD1は、ロボット制御システム100(及び認識システム10)に送信される。 The imaging unit 4 has a solid-state imaging device such as a CCD (Charge-Coupled Device) image sensor. In the present embodiment, the imaging unit 4 is attached to the tip of the arm 31 of the robot 3. The image capturing unit 4 captures an image of the box 6 from above the box 6 according to a command from the control unit 13, thereby capturing a plurality of types of articles 5 contained in the box 6. That is, the imaging unit 4 sets at least the entire opening of the box 6 as the imaging range. The image data D1 obtained by being imaged by the imaging unit 4 is transmitted to the robot control system 100 (and the recognition system 10).

画像データD1の一例を図2に示す。図2に示すように、画像データD1は、箱6を上方から見た2次元画像である。図2では、画像データD1には、箱6を構成する壁(側壁)の画像が含まれているが、壁は含まれていなくてもよい。つまり、画像データD1には、少なくとも箱6の内側の領域全体(又は一部)が含まれていればよい。画像データD1には、箱6に収容された複数種類の物品5の画像が含まれている。図2に示す例では、複数種類の物品5には、コンデンサ、抵抗器、ICチップ、又はスイッチ等が含まれている。また、図2に示す例では、複数種類の物品5には、同じコンデンサであるが、形状、サイズ、又は模様等が互いに異なるコンデンサが含まれている。複数種類の物品5は、いずれも制御部13の指令に応じて、ロボット3がピッキングする対象物51となり得る。 An example of the image data D1 is shown in FIG. As shown in FIG. 2, the image data D1 is a two-dimensional image of the box 6 viewed from above. In FIG. 2, the image data D1 includes an image of a wall (side wall) forming the box 6, but the wall may not be included. That is, it is sufficient that the image data D1 includes at least the entire area (or part) inside the box 6. The image data D1 includes images of a plurality of types of articles 5 contained in the box 6. In the example shown in FIG. 2, the plurality of types of articles 5 include capacitors, resistors, IC chips, switches, and the like. Further, in the example shown in FIG. 2, the plurality of types of articles 5 include capacitors that are the same capacitor but have different shapes, sizes, patterns, or the like. Any of the plurality of types of articles 5 can be the target object 51 picked by the robot 3 in response to a command from the control unit 13.

(2.2)ロボット制御システム及び認識システム
次に、ロボット制御システム100(及び認識システム10)について説明する。本実施形態では、ロボット制御システム100は、ロボット3の設置場所から離れた遠隔地にあるサーバにより実現されている。本実施形態では、ロボット制御システム100は工場内にあるが、工場外にあってもよい。ロボット制御システム100は、図1に示すように、メインコンピュータ1と、通信部2と、を備えている。本実施形態では、通信部2はロボット制御システム100(及び認識システム10)の構成要素に含まれることとするが、通信部2は、ロボット制御システム100(及び認識システム10)の構成要素に含まれていなくてもよい。
(2.2) Robot Control System and Recognition System Next, the robot control system 100 (and the recognition system 10) will be described. In the present embodiment, the robot control system 100 is realized by a server located at a remote place apart from the installation place of the robot 3. In the present embodiment, the robot control system 100 is inside the factory, but it may be outside the factory. As shown in FIG. 1, the robot control system 100 includes a main computer 1 and a communication unit 2. In the present embodiment, the communication unit 2 is included in the components of the robot control system 100 (and the recognition system 10), but the communication unit 2 is included in the components of the robot control system 100 (and the recognition system 10). It does not have to be.

メインコンピュータ1は、ハードウェアとしての1以上のプロセッサ及びメモリを主構成とするコンピュータシステムである。このメインコンピュータ1では、メモリに記録されたプログラムを1以上のプロセッサで実行することによって、種々の機能が実現される。プログラムは、メインコンピュータ1のメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能な光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。 The main computer 1 is a computer system whose main configuration is one or more processors and memories as hardware. In this main computer 1, various functions are realized by executing a program recorded in the memory by one or more processors. The program may be pre-recorded in the memory of the main computer 1, may be provided through an electric communication line, or may be provided by being recorded in a non-transitory recording medium such as an optical disk or a hard disk drive that can be read by a computer system. May be.

メインコンピュータ1は、第1認識部11と、第2認識部12と、制御部13と、を有している。具体的には、メインコンピュータ1は、1以上のプロセッサにより所定のプログラムを実行することで、第1認識部11、第2認識部12、及び制御部13の各々の機能を実現する。 The main computer 1 has a first recognition unit 11, a second recognition unit 12, and a control unit 13. Specifically, the main computer 1 realizes the respective functions of the first recognition unit 11, the second recognition unit 12, and the control unit 13 by executing a predetermined program by one or more processors.

第1認識部11は、対象物51を含む画像データD1から対象物51の第1特徴を認識する第1認識処理を実行する。本実施形態では、第1認識処理(第1認識部11)は、対象物51の第1特徴として、対象物51の種類と、画像データD1における対象物51の位置と、を認識している。つまり、本実施形態では、対象物51の第1特徴は、対象物51の位置を含んでいる。そして、本実施形態では、第1認識処理は、分類器を用いて、対象物51の第1特徴を認識している。分類器は、対象物51となり得る複数種類の物品5の画像データを入力データとして機械学習することで得られる。分類器は、例えばSVM(Support Vector Machine)等の線形分類器の他、ニューラルネットワークを用いた分類器、又は多層ニューラルネットワークを用いた深層学習(ディープラーニング)により生成される分類器を含み得る。 The first recognition unit 11 executes a first recognition process of recognizing the first feature of the target object 51 from the image data D1 including the target object 51. In the present embodiment, the first recognition processing (first recognition unit 11) recognizes the type of the target object 51 and the position of the target object 51 in the image data D1 as the first feature of the target object 51. .. That is, in the present embodiment, the first feature of the target object 51 includes the position of the target object 51. Then, in the present embodiment, the first recognition processing uses the classifier to recognize the first feature of the target object 51. The classifier is obtained by machine learning using image data of a plurality of types of articles 5 that can be the target object 51 as input data. The classifier may include, for example, a linear classifier such as SVM (Support Vector Machine), a classifier using a neural network, or a classifier generated by deep learning using a multilayer neural network.

本実施形態では、第1認識部11は、学習済みのニューラルネットワークを用いた分類器を有している。学習済みのニューラルネットワークは、例えばCNN(Convolutional Neural Network:畳み込みニューラルネットワーク)、又はBNN(Bayesian Neural Network:ベイズニューラルネットワーク)等を含み得る。第1認識部11は、ASIC(Application Specific Integrated Circuit)又はFPGA(Field-Programmable Gate Array)等の集積回路に、学習済みのニューラルネットワークを実装することで実現されている。 In this embodiment, the first recognition unit 11 has a classifier that uses a learned neural network. The learned neural network may include, for example, a CNN (Convolutional Neural Network) or a BNN (Bayesian Neural Network). The first recognition unit 11 is realized by mounting a learned neural network on an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array).

ここで、認識システム10の使用前において、機械学習により、第1認識処理(第1認識部11)で用いられる分類器を生成する学習フェーズについて説明する。学習フェーズにおける機械学習は、例えば学習用のセンターで実行される。学習用のセンターでは、1以上のプロセッサを用いて、第1認識処理で用いるニューラルネットワークの機械学習を行う。機械学習を行うに当たり、ニューラルネットワークの重み付け係数は、初期化されている。ここでいう「プロセッサ」は、例えばCPU(Central Processing Unit)及びGPU(Graphics Processing Unit)等の汎用のプロセッサの他に、ニューラルネットワークでの演算に特化した専用のプロセッサを含み得る。 Here, a learning phase of generating a classifier used in the first recognition processing (first recognition unit 11) by machine learning before using the recognition system 10 will be described. Machine learning in the learning phase is executed, for example, by a learning center. The learning center uses one or more processors to perform machine learning of the neural network used in the first recognition processing. When performing machine learning, the weighting coefficient of the neural network is initialized. The “processor” here may include, for example, a general-purpose processor such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit), as well as a dedicated processor specialized for calculation in a neural network.

ニューラルネットワークの機械学習は、学習用データセットを用いて行われる。本開示でいう「学習用データセット」は、ニューラルネットワークの入力層に入力される学習用の画像(以下、単に「学習用画像」という)と、学習用画像に対応する教師データとの組み合わせを1つの学習用データとした、複数の学習用データの集合である。学習用画像は、物品5が写った画像である。なお、画像における物品5の位置、大きさ、及び角度を変更した多数の学習用画像を、物品5ごとに用意するのが好ましい。学習用データセットには、認識システム10(及びロボット制御システム100)が取り扱う全ての種類の物品5についての学習用データが含まれる。また、学習用データにおいて、教師データは、学習用画像に写っている物品5が分類されるカテゴリの情報である。本実施形態では、カテゴリの情報は、物品5の種類である。 Machine learning of a neural network is performed using a learning data set. The “learning data set” in the present disclosure is a combination of a learning image input to the input layer of the neural network (hereinafter, simply referred to as “learning image”) and teacher data corresponding to the learning image. It is a set of a plurality of learning data, which is one learning data. The learning image is an image of the article 5. In addition, it is preferable to prepare a large number of learning images in which the position, size, and angle of the article 5 in the image are changed for each article 5. The learning data set includes learning data for all types of articles 5 handled by the recognition system 10 (and the robot control system 100). Further, in the learning data, the teacher data is information on a category into which the article 5 shown in the learning image is classified. In this embodiment, the category information is the type of the article 5.

1以上のプロセッサは、複数の学習用データの各々について、ニューラルネットワークの入力層に学習用画像を入力して演算を実行する。そして、1以上のプロセッサは、ニューラルネットワークの出力層の複数のニューロンの出力値と、教師データとを用いて、バックプロパゲーション(誤差逆伝播法)処理を実行する。ここで、出力層の複数のニューロンは、それぞれ複数のカテゴリに対応している。バックプロパゲーション処理においては、1以上のプロセッサは、出力層の複数のニューロンのうち、教師データと対応するニューロンの出力値の最大化を図るように、ニューラルネットワークの重み付け係数を更新する。1以上のプロセッサは、全ての学習用データについてバックプロパゲーション処理を実行することにより、ニューラルネットワークの重み付け係数の最適化を図る。これにより、ニューラルネットワークの学習が完了する。 The one or more processors input the learning image into the input layer of the neural network and execute the calculation for each of the plurality of learning data. Then, the one or more processors execute backpropagation (error backpropagation method) processing using the output values of the plurality of neurons in the output layer of the neural network and the teacher data. Here, the plurality of neurons in the output layer respectively correspond to a plurality of categories. In the backpropagation process, one or more processors update the weighting coefficient of the neural network so as to maximize the output value of the neuron corresponding to the teacher data among the plurality of neurons in the output layer. One or more processors perform backpropagation processing on all learning data to optimize the weighting coefficient of the neural network. This completes the learning of the neural network.

第1認識処理(第1認識部11)による処理結果の一例を視覚的に表現した画像データD1を図3に示す。図3では、箱6に収容されている複数種類の物品5のうち、箱6の開口から視認し得る物品5の一部を図示している。したがって、実際には、箱6には、図3に示す物品5以外の多数の物品5が積み重なった状態で収容され得る。 FIG. 3 shows image data D1 that visually expresses an example of the processing result of the first recognition processing (first recognition unit 11). In FIG. 3, among the plurality of types of articles 5 accommodated in the box 6, a part of the articles 5 visible from the opening of the box 6 is illustrated. Therefore, in reality, a large number of articles 5 other than the articles 5 shown in FIG. 3 can be accommodated in the box 6 in a stacked state.

図3に示すように、画像データD1に含まれる複数の物品5のうち第1認識処理により認識された1以上の物品5には、物品5の種類を表すラベルA1が付される。つまり、第1認識部11は、第1認識処理により認識された1以上の物品5については、物品5の種類について認識していることから、ラベルA1を付すという処理が可能である。また、図3に示すように、第1認識処理により認識された1以上の物品5は、枠(バウンディングボックス:bounding box)B1で囲まれる。つまり、第1認識部11は、第1認識処理により認識された1以上の物品5については、画像データD1における位置(座標)をも認識していることから、枠B1で囲むという処理が可能である。 As shown in FIG. 3, among the plurality of articles 5 included in the image data D1, one or more articles 5 recognized by the first recognition process are labeled with a label A1 indicating the type of the article 5. That is, the first recognizing unit 11 recognizes the type of the one or more articles 5 recognized by the first recognizing process, and therefore can perform the process of attaching the label A1. Further, as shown in FIG. 3, the one or more articles 5 recognized by the first recognition processing are surrounded by a frame (bounding box) B1. That is, the first recognizing unit 11 also recognizes the position (coordinates) in the image data D1 for the one or more articles 5 recognized in the first recognizing process, and thus the process of enclosing the frame 5 in the frame B1 is possible. Is.

第2認識部12では、対象物51となり得る複数種類の物品5の特徴に対応した複数の認識手段121が用意されている。これら複数の認識手段121は、例えばメインコンピュータ1のメモリにあらかじめ記憶されている。そして、第2認識部12は、少なくとも第1認識処理(第1認識部11)において認識された第1特徴に応じて、複数の認識手段121から一の認識手段121を選択し、一の認識手段121により対象物51の第2特徴を認識する第2認識処理を実行する。本実施形態では、第2認識処理(第2認識部12)は、対象物51の第2特徴として、画像データD1における対象物51の位置と、画像データD1における対象物51の姿勢(向きを含む)と、を認識している。つまり、本実施形態では、対象物51の第2特徴は、対象物51の位置及び姿勢の少なくとも一方を含んでいる。 The second recognizing unit 12 is provided with a plurality of recognizing means 121 corresponding to the characteristics of the plurality of types of articles 5 that can be the object 51. The plurality of recognition units 121 are stored in advance in the memory of the main computer 1, for example. Then, the second recognition unit 12 selects one recognition unit 121 from the plurality of recognition units 121 according to at least the first feature recognized in the first recognition process (first recognition unit 11), and performs one recognition. A second recognition process for recognizing the second feature of the object 51 is executed by the means 121. In the present embodiment, the second recognition process (second recognition unit 12) uses the position of the target object 51 in the image data D1 and the posture (direction of the target object 51 in the image data D1 as the second feature of the target object 51. Including), and is aware. That is, in the present embodiment, the second feature of the target object 51 includes at least one of the position and the posture of the target object 51.

また、本実施形態では、第2認識部12は、第1認識処理で認識された対象物51の種類に応じて、複数のテンプレートT1から対象物51に対応するテンプレートT1を選択し、選択したテンプレートT1を用いてパターンマッチングを実行する。つまり、本実施形態では、複数の認識手段121の各々は、パターンマッチングに用いられるテンプレートT1である。本実施形態では、テンプレートT1は、箱6を上方から見た場合の物品5の2次元画像であって、画像データD1と比較する際に用いられる。 Further, in the present embodiment, the second recognition unit 12 selects and selects the template T1 corresponding to the target object 51 from the plurality of templates T1 according to the type of the target object 51 recognized in the first recognition processing. Pattern matching is performed using the template T1. That is, in the present embodiment, each of the plurality of recognition units 121 is the template T1 used for pattern matching. In the present embodiment, the template T1 is a two-dimensional image of the article 5 when the box 6 is viewed from above, and is used when comparing with the image data D1.

第2認識処理(第2認識部12)は、第1認識処理(第1認識部11)で認識された1以上の物品5のうち、制御部13からの指令に応じた対象物51のある領域にテンプレートT1を適用することで、パターンマッチングを行う。具体的には、第2認識処理は、画像データD1における対象物51のある領域内にて、テンプレートT1の移動及び回転を繰り返すことにより、テンプレートT1と一致する画素の集合を探索する。つまり、本実施形態では、第2認識処理(第2認識部12)は、第1認識処理(第1認識部11)において認識された第1特徴に基づいて、画像データD1において一の認識手段121(ここでは、テンプレートT1)を適用する範囲を限定している。ここでいう「範囲」は、一例として、対象物51を囲む枠B1である。 The second recognition process (second recognition unit 12) includes the object 51 corresponding to the command from the control unit 13 among the one or more articles 5 recognized by the first recognition process (first recognition unit 11). Pattern matching is performed by applying the template T1 to the region. Specifically, the second recognition process searches for a set of pixels that match the template T1 by repeatedly moving and rotating the template T1 within a region of the object 51 in the image data D1. That is, in the present embodiment, the second recognition process (second recognition unit 12) uses one recognition unit in the image data D1 based on the first feature recognized in the first recognition process (first recognition unit 11). The range to which 121 (here, the template T1) is applied is limited. The “range” here is, for example, a frame B1 surrounding the object 51.

本実施形態では、図4に示すように、テンプレートT1は、複数のサブテンプレートT11により構成されている。複数のサブテンプレートT11は、それぞれ対象物51の互いに異なる特徴点を含む画像である。対象物51の特徴点は、一例として、対象物51の角等である。図4に示す例では、対象物51であるコンデンサの特徴点は、コンデンサの頂部、及びコンデンサの一対の端子の先端である。第2認識処理(第2認識部12)では、複数のサブテンプレートT11の相対的な位置関係を崩さないようにして、テンプレートT1を移動又は回転させる。このように、本実施形態では、テンプレートT1は、対象物51全体に対応する画素の集合ではなく、対象物51の一部に対応する画素の集合で構成されている。もちろん、テンプレートT1は、対象物51全体に対応する画素の集合で構成されていてもよい。 In the present embodiment, as shown in FIG. 4, the template T1 is composed of a plurality of sub-templates T11. The plurality of sub-templates T11 are images that include mutually different characteristic points of the target object 51. The feature point of the target object 51 is, for example, a corner of the target object 51. In the example shown in FIG. 4, the characteristic points of the capacitor, which is the object 51, are the top of the capacitor and the tips of a pair of terminals of the capacitor. In the second recognition process (second recognition unit 12), the template T1 is moved or rotated without breaking the relative positional relationship of the plurality of sub-templates T11. As described above, in the present embodiment, the template T1 is not a set of pixels corresponding to the entire target object 51, but a set of pixels corresponding to a part of the target object 51. Of course, the template T1 may be composed of a set of pixels corresponding to the entire object 51.

上述のように、本実施形態では、第1認識処理(第1認識部11)及び第2認識処理(第2認識部12)は、いずれも対象物51の位置を認識している。そして、本実施形態では、第1認識処理にて画像データD1における対象物51の大まかな位置を認識した後に、第2認識処理にて画像データD1における対象物51のより正確な位置を認識している。つまり、本実施形態では、対象物51の位置を認識する精度は、第1認識処理よりも第2認識処理の方が高くなっている。 As described above, in the present embodiment, both the first recognition process (first recognition unit 11) and the second recognition process (second recognition unit 12) recognize the position of the target object 51. Then, in the present embodiment, after the rough position of the object 51 in the image data D1 is recognized in the first recognition process, the more accurate position of the object 51 in the image data D1 is recognized in the second recognition process. ing. That is, in the present embodiment, the accuracy of recognizing the position of the target object 51 is higher in the second recognition process than in the first recognition process.

また、本実施形態では、第1認識処理(第1認識部11)及び第2認識処理(第2認識部12)は、いずれも第1認識処理を実行する前に撮像部4で撮像することで得られた画像データD1を用いている。つまり、本実施形態では、第2認識処理は、第1認識処理で用いられる画像データD1と同じ画像データD1を用いて、一の認識手段121により対象物51の第2特徴を認識する。 Further, in the present embodiment, the first recognition process (first recognition unit 11) and the second recognition process (second recognition unit 12) are both imaged by the imaging unit 4 before the first recognition process is executed. The image data D1 obtained in step 1 is used. That is, in the present embodiment, the second recognition process uses the same image data D1 as the image data D1 used in the first recognition process to recognize the second feature of the target object 51 by the one recognition unit 121.

制御部13は、ロボット3を制御するための指令を、通信部2を介してロボット3に与えることにより、ロボット3を制御する機能を有している。制御部13は、一例として、メモリにあらかじめ記憶されている基板7の組み立て工程のスケジュールにしたがって、ロボット3に指定した対象物51をピッキングさせる指令と、ロボット3にピッキングした対象物51を基板7に組み込ませる指令と、を生成する。なお、制御部13は、基板7の組み立て工程を管理する上位システムと通信することにより、上位システムからの指令に応じて、ロボット3を制御するための指令を生成し、生成した指令をロボット3に与えてもよい。また、制御部13は、撮像部4を制御することにより、撮像部4に箱6を撮像させる機能を有している。 The control unit 13 has a function of controlling the robot 3 by giving a command for controlling the robot 3 to the robot 3 via the communication unit 2. As an example, the control unit 13 issues a command to pick the target object 51 designated by the robot 3 and the target object 51 picked by the robot 3 to the substrate 7 according to the schedule of the assembly process of the substrate 7 stored in advance in the memory. And a command to be incorporated into. Note that the control unit 13 communicates with a host system that manages the assembly process of the board 7 to generate a command for controlling the robot 3 in accordance with a command from the host system, and the generated command is used by the robot 3 May be given to. The control unit 13 also has a function of controlling the imaging unit 4 so that the imaging unit 4 images the box 6.

通信部2は、例えば無線通信モジュールを含んでいる。通信部2は、無線通信モジュールにより、例えば赤外線又は可視光等の光を媒体とする光無線通信、又は電波を媒体とする無線通信にて、無線LAN(Local Area Network)等のネットワークを介してロボット3の通信インタフェースと通信する。通信部2は、例えばルータ等の通信機器を介してネットワークに接続されてもよい。 The communication unit 2 includes, for example, a wireless communication module. The communication unit 2 uses a wireless communication module to perform optical wireless communication using light such as infrared rays or visible light as a medium, or wireless communication using radio waves as a medium, via a network such as a wireless LAN (Local Area Network). It communicates with the communication interface of the robot 3. The communication unit 2 may be connected to the network via a communication device such as a router.

(3)動作
以下、本実施形態の認識システム10及びロボット制御システム100の動作の一例について、図5を用いて説明する。以下の説明では、認識システム10は、ロボット制御システム100の制御部13から、ロボット3によるピッキングの対象物51を指定する指令をあらかじめ受け取っていると仮定する。なお、ピッキングの対象物51の順番は、あらかじめ決められていないと仮定する。つまり、指令では、全てのピッキングの対象物51が指定されている。そして、ロボット3は、指定された全てのピッキングの対象物51のうち、ピッキングしやすい位置にある一の対象物51から順次ピッキングする。
(3) Operation Hereinafter, an example of operation of the recognition system 10 and the robot control system 100 of the present embodiment will be described with reference to FIG. In the following description, it is assumed that the recognition system 10 has previously received a command from the control unit 13 of the robot control system 100 to specify the object 51 to be picked by the robot 3. It is assumed that the order of the picking target objects 51 is not determined in advance. That is, all the picking target objects 51 are designated in the command. Then, the robot 3 sequentially picks one target object 51 at a position where it is easy to pick, out of all the designated picking target objects 51.

まず、制御部13は、ロボット3のアーム31の先端が箱6の上方に位置するように、ロボット3を制御する。そして、制御部13は、撮像部4を制御することにより、箱6に収容されている複数種類の物品5を撮像する(S1)。撮像部4で撮像されることで得られる画像データD1は、ロボット3の通信インタフェースを介して認識システム10及びロボット制御システム100に送信される。 First, the control unit 13 controls the robot 3 so that the tip of the arm 31 of the robot 3 is located above the box 6. Then, the control unit 13 controls the imaging unit 4 to image the plurality of types of articles 5 contained in the box 6 (S1). The image data D1 obtained by being imaged by the imaging unit 4 is transmitted to the recognition system 10 and the robot control system 100 via the communication interface of the robot 3.

画像データD1を取得すると、第1認識部11は、画像データD1を分類器に入力することにより、第1認識処理を実行する(S2)。これにより、第1認識部11は、画像データD1に含まれる複数種類の物品5のうち1以上の物品5の第1特徴(ここでは、物品5の種類)を認識する。言い換えれば、第1認識部11は、画像データD1に含まれる対象物51の第1特徴を認識する(S3)。第1認識部11での処理結果は、第2認識部12に与えられる。 When the image data D1 is acquired, the first recognition unit 11 inputs the image data D1 into the classifier to execute the first recognition process (S2). Accordingly, the first recognition unit 11 recognizes the first feature (here, the type of the article 5) of one or more articles 5 among the plurality of types of articles 5 included in the image data D1. In other words, the first recognition unit 11 recognizes the first feature of the object 51 included in the image data D1 (S3). The processing result of the first recognition unit 11 is given to the second recognition unit 12.

第1認識部11での処理結果を受けると、第2認識部12は、第2認識処理を実行する(S4)。まず、第2認識処理において、第2認識部12は、第1認識部11で認識された対象物51の第1特徴に基づいて、複数のテンプレートT1(認識手段121)から一のテンプレートT1を選択する(S5)。ここで選択されるテンプレートT1は、第1認識部11で認識された対象物51の種類に対応するテンプレートT1である。なお、第1認識部11で複数の対象物51が認識された場合、第2認識部12は、複数の対象物51のうち、ロボット3がピッキングしやすい位置にある対象物51の種類に対応するテンプレートT1を選択することになる。 Upon receiving the processing result of the first recognizing unit 11, the second recognizing unit 12 executes the second recognizing process (S4). First, in the second recognition processing, the second recognition unit 12 selects one template T1 from the plurality of templates T1 (recognition means 121) based on the first feature of the target object 51 recognized by the first recognition unit 11. Select (S5). The template T1 selected here is the template T1 corresponding to the type of the target object 51 recognized by the first recognition unit 11. When the plurality of target objects 51 are recognized by the first recognition unit 11, the second recognition unit 12 corresponds to the type of the target objects 51 at the position where the robot 3 easily picks them out of the plurality of target objects 51. The template T1 to be processed is selected.

次に、第2認識処理において、第2認識部12は、画像データD1に対して選択したテンプレートT1を適用することにより、パターンマッチングを行う。既に述べたように、本実施形態では、第1認識処理において画像データD1での対象物51の位置をある程度認識しているので、第2認識部12は、対象物51の位置を含む範囲(例えば、図3で示す枠B1)でパターンマッチングを行う。これにより、第2認識部12は、対象物51の第2特徴(ここでは、対象物51の位置及び姿勢)を認識する(S6)。第1認識部11での処理結果、及び第2認識部12での処理結果は、制御部13に与えられる。 Next, in the second recognition process, the second recognition unit 12 performs pattern matching by applying the selected template T1 to the image data D1. As described above, in the present embodiment, since the position of the target object 51 in the image data D1 is recognized to some extent in the first recognition processing, the second recognition unit 12 causes the range (including the position of the target object 51 ( For example, pattern matching is performed in the frame B1) shown in FIG. As a result, the second recognition unit 12 recognizes the second feature of the target object 51 (here, the position and orientation of the target object 51) (S6). The processing result of the first recognition unit 11 and the processing result of the second recognition unit 12 are given to the control unit 13.

そして、制御部13は、第1認識部11での処理結果、及び第2認識部12での処理結果に基づいて、ロボット3を制御することにより、ロボット3に箱6から対象物51をピッキングさせる(S7)。ここで、第1認識処理及び第2認識処理により、対象物51の種類、対象物51の位置、及び対象物51の姿勢等を認識しているので、制御部13は、認識した情報に基づいてロボット3のアーム31及びハンド32を制御する。一例として、制御部13は、対象物51に応じたハンド32を選択したり、対象物51を挟み込むことが可能な位置までハンド32を移動及び回転させたりする。 Then, the control unit 13 controls the robot 3 based on the processing result of the first recognizing unit 11 and the processing result of the second recognizing unit 12, thereby picking the object 51 from the box 6 to the robot 3. (S7). Here, since the type of the target object 51, the position of the target object 51, the posture of the target object 51, and the like are recognized by the first recognition process and the second recognition process, the control unit 13 is based on the recognized information. The robot 31 controls the arm 31 and the hand 32 of the robot 3. As an example, the control unit 13 selects the hand 32 corresponding to the target object 51, or moves and rotates the hand 32 to a position where the target object 51 can be sandwiched.

その後、制御部13は、対象物51をピッキングした状態のハンド32が基板7の上方に位置するように、ロボット3を制御する。そして、制御部13は、ロボット3を制御することにより、対象物51を基板7の対応する部位へ組み込ませる(S8)。以降、ロボット3によるピッキングの対象物51ごとに上記のS1〜S8の処理を繰り返す。 After that, the control unit 13 controls the robot 3 so that the hand 32 with the object 51 picked is located above the substrate 7. Then, the control unit 13 controls the robot 3 to incorporate the object 51 into the corresponding portion of the substrate 7 (S8). After that, the processes of S1 to S8 described above are repeated for each object 51 to be picked by the robot 3.

上述のように、本実施形態では、第1認識処理(第1認識部11)にて対象物51の第1特徴を認識することから、第2認識処理(第2認識部12)では第1特徴を踏まえて第2特徴のみを認識すればよい。このため、本実施形態では、第2認識処理のみで対象物51の第1特徴及び第2特徴を認識する場合と比較して、対象物51ごとに第2認識処理で要する時間がばらつきにくい。その結果、本実施形態では、複数種類の物品5から対象物51を認識するまでに要する時間のばらつきが生じにくい、という利点がある。 As described above, in the present embodiment, the first recognition process (first recognition unit 11) recognizes the first feature of the target object 51, so that the second recognition process (second recognition unit 12) performs the first feature. Only the second feature needs to be recognized based on the features. Therefore, in the present embodiment, compared with the case of recognizing the first feature and the second feature of the target object 51 only by the second recognition process, the time required for the second recognition process for each target object 51 is less likely to vary. As a result, in the present embodiment, there is an advantage that variations in the time required to recognize the target object 51 from the plurality of types of articles 5 are unlikely to occur.

以下、比較例の認識方法との比較を交えて、上記の利点について説明する。比較例の認識方法は、第2認識処理(ここでは、パターンマッチング)のみで対象物51の第1特徴及び第2特徴を認識する点で、本実施形態の認識方法と相違する。比較例の認識方法では、複数のテンプレートのうちの1つのテンプレートを用いて、画像データD1における対象物51の位置及び姿勢の認識を試みる。この方法では、例えば画像データD1の四隅のうちの1つの隅を始点として、テンプレートと一致する画素の集合が見つかるまで、テンプレートの移動及び回転を繰り返す処理(以下、「探索処理」という)を実行する。テンプレートと一致する画素の集合が見つからない場合は、テンプレートを変更して探索処理を繰り返す。そして、比較例の認識方法では、テンプレートの変更を繰り返して対象物51に対応するテンプレートが見つかるまでに要する時間、及びテンプレートと一致する画素の集合が見つかるまでに要する時間が対象物51ごとに異なってくる。つまり、比較例の認識方法では、複数種類の物品5から対象物51を認識するまでに要する時間のばらつきが生じやすい、という問題がある。 Hereinafter, the above advantages will be described with a comparison with the recognition method of the comparative example. The recognition method of the comparative example is different from the recognition method of the present embodiment in that the first feature and the second feature of the object 51 are recognized only by the second recognition process (here, pattern matching). In the recognition method of the comparative example, one of the plurality of templates is used to try to recognize the position and orientation of the object 51 in the image data D1. In this method, for example, a process of moving and rotating the template (hereinafter, referred to as “search process”) is executed by using one of the four corners of the image data D1 as a starting point until a set of pixels matching the template is found. To do. If no set of pixels that matches the template is found, the template is changed and the search process is repeated. In the recognition method of the comparative example, the time required until a template corresponding to the object 51 is found by repeatedly changing the template and the time required until a set of pixels matching the template are found are different for each object 51. Come on. That is, the recognition method of the comparative example has a problem that the time required to recognize the target object 51 from a plurality of types of articles 5 tends to vary.

一方、本実施形態の認識方法では、まず第1認識処理(第1認識部11)にて対象物51の第1特徴(ここでは、対象物51の種類)を認識する。これにより、第2認識処理(第2認識部12)は、探索処理に用いるテンプレートT1として、対象物51の種類に対応するテンプレートT1を選択することが可能である。そして、第2認識処理では、このテンプレートT1を用いて探索処理を実行することで、テンプレートT1に一致する画素の集合を見つけることが可能である。つまり、本実施形態では、第1認識処理を経ることで、1回の探索処理で対象物51の第2特徴を認識することが可能である。このため、本実施形態では、第2認識処理で要する時間が、テンプレートT1と一致する画素の集合が見つかるまでに要する時間に相当することになるので、比較例の認識方法と比較して、対象物51ごとの第2認識処理に要する時間のばらつきが生じにくい。また、第1認識処理に要する時間は、画像データD1全体に対する画像処理に要する時間に相当するため、対象物51ごとにばらつきは殆ど生じない。その結果、本実施形態では、複数種類の物品5から対象物51を認識するまでに要する時間のばらつきが生じにくい、という利点がある。 On the other hand, in the recognition method of the present embodiment, first, the first recognition process (first recognition unit 11) recognizes the first feature of the object 51 (here, the type of the object 51). Accordingly, the second recognition process (second recognition unit 12) can select the template T1 corresponding to the type of the target object 51 as the template T1 used in the search process. Then, in the second recognition process, it is possible to find the set of pixels that match the template T1 by executing the search process using this template T1. That is, in the present embodiment, it is possible to recognize the second feature of the target object 51 by one search process by passing through the first recognition process. Therefore, in the present embodiment, the time required for the second recognition process corresponds to the time required for finding a set of pixels that match the template T1. Variation in the time required for the second recognition processing for each object 51 is unlikely to occur. Moreover, since the time required for the first recognition processing corresponds to the time required for the image processing for the entire image data D1, there is almost no variation among the objects 51. As a result, in the present embodiment, there is an advantage that variations in the time required to recognize the target object 51 from the plurality of types of articles 5 are unlikely to occur.

さらに、本実施形態では、第1認識処理にて対象物51の第1特徴として対象物51の位置を認識することから、第2認識処理にて一の認識手段121(ここでは、対象物51に対応するテンプレートT1)を適用する範囲を限定することが可能である。このため、本実施形態では、第2認識処理のみで対象物51の第1特徴及び第2特徴を認識する場合と比較して、第2認識処理で要する時間の短縮を図りやすい、という利点がある。 Further, in the present embodiment, since the position of the target object 51 is recognized as the first feature of the target object 51 in the first recognition process, one recognition means 121 (here, the target object 51 in the second recognition process). It is possible to limit the range to which the template T1) corresponding to is applied. Therefore, the present embodiment has an advantage that the time required for the second recognition process can be easily shortened as compared with the case where the first feature and the second feature of the object 51 are recognized only by the second recognition process. is there.

なお、第1認識処理(第1認識部11)のみで対象物51の第1特徴及び第2特徴を認識する態様も考えられる。しかしながら、この態様では、画像データD1において対象物51がどの位置にあるかまでは認識可能であるが、実際の対象物51の位置とのずれが生じ得る。このため、この態様では、本実施形態のように対象物51を基板7へ組み込む作業においては、微小な部品である対象物51をピッキングするのに十分な精度を得られない可能性がある。 In addition, a mode in which the first feature and the second feature of the object 51 are recognized only by the first recognition process (first recognition unit 11) is also conceivable. However, in this mode, although the position of the object 51 in the image data D1 can be recognized, a deviation from the actual position of the object 51 may occur. Therefore, in this aspect, in the work of incorporating the target object 51 into the substrate 7 as in the present embodiment, there is a possibility that sufficient accuracy for picking the target object 51, which is a minute component, cannot be obtained.

そこで、本実施形態の認識方法では、第1認識処理に加えて、第1認識処理よりも対象物51の位置の認識精度が高い第2認識処理を実行している。これにより、本実施形態では、第1認識処理のみで対象物51の第1特徴及び第2特徴を認識する態様と比較して、画像データD1における対象物51の位置の認識精度を向上することができる。その結果、本実施形態の認識方法は、対象物51が微小な部品である場合にも、対象物51をピッキングするのに十分な精度を得やすい、という利点がある。 Therefore, in the recognition method of the present embodiment, in addition to the first recognition process, the second recognition process having higher recognition accuracy of the position of the target object 51 than the first recognition process is executed. As a result, in the present embodiment, the accuracy of recognizing the position of the target object 51 in the image data D1 is improved as compared with the mode in which the first feature and the second feature of the target object 51 are recognized only by the first recognition processing. You can As a result, the recognition method of the present embodiment has an advantage that it is easy to obtain sufficient accuracy for picking the target object 51 even when the target object 51 is a minute component.

(4)変形例
上述の実施形態は、本開示の様々な実施形態の一つに過ぎない。上述の実施形態は、本開示の目的を達成できれば、設計等に応じて種々の変更が可能である。また、認識システム10と同様の機能は、(コンピュータ)プログラム、又はプログラムを記録した非一時的記録媒体等で具現化されてもよい。また、ロボット制御システム100と同様の機能は、ロボット制御方法、(コンピュータ)プログラム、又はプログラムを記録した非一時的記録媒体等で具現化されてもよい。
(4) Modified Example The above-described embodiment is only one of the various embodiments of the present disclosure. The above-described embodiment can be variously modified according to the design and the like as long as the object of the present disclosure can be achieved. Further, the same function as that of the recognition system 10 may be embodied by a (computer) program, a non-transitory recording medium recording the program, or the like. Further, the same function as the robot control system 100 may be embodied by a robot control method, a (computer) program, a non-transitory recording medium recording the program, or the like.

一態様に係るロボット制御方法は、上述の認識方法により認識された対象物51の第1特徴及び第2特徴に基づいて、対象物51をピッキングするロボット3を制御する。 The robot control method according to one aspect controls the robot 3 that picks the target object 51 based on the first feature and the second feature of the target object 51 recognized by the recognition method described above.

また、一態様に係る認識プログラムは、1以上のプロセッサに、上述の認識方法を実行させるためのプログラムである。 The recognition program according to one aspect is a program for causing one or more processors to execute the above-described recognition method.

また、一態様に係るロボット制御プログラムは、1以上のプロセッサに、上述のロボット制御方法を実行させるためのプログラムである。 A robot control program according to one aspect is a program for causing one or more processors to execute the robot control method described above.

以下、上述の実施形態の変形例を列挙する。以下に説明する変形例は、上述の実施形態と適宜組み合わせて適用可能である。 Hereinafter, modifications of the above-described embodiment will be listed. The modified examples described below can be applied by appropriately combining with the above-described embodiments.

本開示における認識システム10(又はロボット制御システム100)は、例えば、メインコンピュータ1等に、コンピュータシステムを含んでいる。コンピュータシステムは、ハードウェアとしてのプロセッサ及びメモリを主構成とする。コンピュータシステムのメモリに記録されたプログラムをプロセッサが実行することによって、本開示における認識システム10(又はロボット制御システム100)としての機能が実現される。プログラムは、コンピュータシステムのメモリに予め記録されてもよく、電気通信回線を通じて提供されてもよく、コンピュータシステムで読み取り可能なメモリカード、光学ディスク、ハードディスクドライブ等の非一時的記録媒体に記録されて提供されてもよい。コンピュータシステムのプロセッサは、半導体集積回路(IC)又は大規模集積回路(LSI)を含む1ないし複数の電子回路で構成される。ここでいうIC又はLSI等の集積回路は、集積の度合いによって呼び方が異なっており、システムLSI、VLSI(Very Large Scale Integration)、又はULSI(Ultra Large Scale Integration)と呼ばれる集積回路を含む。さらに、LSIの製造後にプログラムされる、FPGA(Field-Programmable Gate Array)、又はLSI内部の接合関係の再構成若しくはLSI内部の回路区画の再構成が可能な論理デバイスについても、プロセッサとして採用することができる。複数の電子回路は、1つのチップに集約されていてもよいし、複数のチップに分散して設けられていてもよい。複数のチップは、1つの装置に集約されていてもよいし、複数の装置に分散して設けられていてもよい。ここでいうコンピュータシステムは、1以上のプロセッサ及び1以上のメモリを有するマイクロコントローラを含む。したがって、マイクロコントローラについても、半導体集積回路又は大規模集積回路を含む1ないし複数の電子回路で構成される。 The recognition system 10 (or the robot control system 100) according to the present disclosure includes, for example, a computer system in the main computer 1 or the like. The computer system mainly includes a processor as a hardware and a memory. When the processor executes the program recorded in the memory of the computer system, the function as the recognition system 10 (or the robot control system 100) in the present disclosure is realized. The program may be pre-recorded in the memory of the computer system, may be provided through an electric communication line, or may be recorded in a non-transitory recording medium such as a memory card, an optical disk, a hard disk drive, which can be read by the computer system. May be provided. The processor of the computer system is composed of one or a plurality of electronic circuits including a semiconductor integrated circuit (IC) or a large scale integrated circuit (LSI). The integrated circuit such as IC or LSI referred to here is called differently depending on the degree of integration, and includes an integrated circuit called system LSI, VLSI (Very Large Scale Integration), or ULSI (Ultra Large Scale Integration). Further, an FPGA (Field-Programmable Gate Array), which is programmed after the LSI is manufactured, or a logic device capable of reconfiguring the connection relation inside the LSI or reconfiguring the circuit section inside the LSI, should also be adopted as a processor. You can The plurality of electronic circuits may be integrated in one chip, or may be distributed and provided in the plurality of chips. The plurality of chips may be integrated in one device or may be distributed and provided in the plurality of devices. The computer system referred to here includes a microcontroller having one or more processors and one or more memories. Therefore, the microcontroller is also composed of one or a plurality of electronic circuits including a semiconductor integrated circuit or a large scale integrated circuit.

また、認識システム10(又はロボット制御システム100)における複数の機能が、1つの筐体内に集約されていることは認識システム10(又はロボット制御システム100)に必須の構成ではない。認識システム10(又はロボット制御システム100)の構成要素は、複数の筐体に分散して設けられていてもよい。さらに、認識システム10(又はロボット制御システム100)の少なくとも一部の機能は、例えば、サーバ装置及びクラウド(クラウドコンピューティング)等によって実現されてもよい。 Further, it is not essential for the recognition system 10 (or the robot control system 100) that the plurality of functions of the recognition system 10 (or the robot control system 100) are integrated in one housing. The components of the recognition system 10 (or the robot control system 100) may be distributed and provided in a plurality of housings. Furthermore, at least a part of the functions of the recognition system 10 (or the robot control system 100) may be realized by, for example, a server device and a cloud (cloud computing).

上述の実施形態において、通信部2は、例えば有線通信にて、有線LAN等のネットワークを介してロボット3の通信インタフェースと通信してもよい。つまり、ロボット制御システム100(及び認識システム10)とロボット3との間の通信方式は、無線通信方式であってもよいし、有線通信方式であってもよい。 In the above-described embodiment, the communication unit 2 may communicate with the communication interface of the robot 3 via a network such as a wired LAN, for example, by wired communication. That is, the communication method between the robot control system 100 (and the recognition system 10) and the robot 3 may be a wireless communication method or a wire communication method.

上述の実施形態では、認識システム10及びロボット制御システム100はサーバで実現されているが、これに限らず、認識システム10及びロボット制御システム100はロボット3に設けられていてもよい。この場合、通信部2は不要である。 In the above embodiment, the recognition system 10 and the robot control system 100 are realized by the server, but the invention is not limited to this, and the recognition system 10 and the robot control system 100 may be provided in the robot 3. In this case, the communication unit 2 is unnecessary.

上述の実施形態では、ロボット3は、アーム31と、ハンド32と、を備えているが、これに限らず、ハンド32のみを備えていてもよい。つまり、ロボット制御システム100は、ハンド32をロボット3として制御する構成であってもよい。 In the above-described embodiment, the robot 3 includes the arm 31 and the hand 32, but the robot 3 is not limited to this and may include only the hand 32. That is, the robot control system 100 may be configured to control the hand 32 as the robot 3.

上述の実施形態では、撮像部4はロボット3に設けられているが、これに限定する趣旨ではない。例えば、撮像部4は、工場内におけるロボット3以外の場所であって、平面視で箱6全体を撮像することができる位置に設置されてもよい。 Although the imaging unit 4 is provided in the robot 3 in the above-described embodiment, the present invention is not limited to this. For example, the imaging unit 4 may be installed in a place other than the robot 3 in the factory and at a position where the entire box 6 can be imaged in a plan view.

上述の実施形態において、ロボット制御システム100は、ロボット3をさらに備えたロボットシステムであってもよい。つまり、ロボットシステムは、対象物51をピッキングするロボット3と、ロボット3を制御する制御部13と、を備える。そして、制御部13は、上述の認識方法により認識された対象物51の第1特徴及び第2特徴に基づいて、ロボット3を制御する。 In the above embodiment, the robot control system 100 may be a robot system further including the robot 3. That is, the robot system includes the robot 3 that picks the object 51 and the control unit 13 that controls the robot 3. Then, the control unit 13 controls the robot 3 based on the first feature and the second feature of the target object 51 recognized by the above-described recognition method.

上述の実施形態において、第2認識処理(第2認識部12)で用意される複数の認識手段121の各々は、対象物51の第2特徴を認識するための認識アルゴリズムであってもよい。例えば、第2認識処理では、複数の認識手段121として、パターンマッチング及び形状検出(一例として、コーナー検出、又はエッジ検出)等の認識アルゴリズムが用意されていてもよい。そして、第2認識処理は、第1認識処理(第1認識部11)で認識された対象物51の第1特徴に応じて、パターンマッチングを認識手段121として用いたり、形状検出を認識手段121として用いたりしてもよい。 In the above-described embodiment, each of the plurality of recognition units 121 prepared in the second recognition process (second recognition unit 12) may be a recognition algorithm for recognizing the second feature of the target object 51. For example, in the second recognition processing, a recognition algorithm such as pattern matching and shape detection (corner detection or edge detection as an example) may be prepared as the plurality of recognition means 121. Then, the second recognition processing uses pattern matching as the recognition means 121 or shape detection as the recognition means 121 according to the first feature of the object 51 recognized by the first recognition processing (first recognition unit 11). It may be used as.

上述の実施形態において、第1認識処理(第1認識部11)で用いられる画像データD1と、第2認識処理(第2認識部12)で用いられる画像データD1とは、互いに異なっていてもよい。例えば、第2認識処理を実行する前に、ロボット3を制御することで、対象物51が撮像範囲の中心に位置するように撮像部4に撮像させてもよい。この場合、第2認識処理で用いる画像データD1では、対象物51が撮像範囲の周縁に位置しないことから、対象物51の画像が歪みにくく、対象物51の第2特徴を認識しやすくなる、という利点がある。 In the above embodiment, the image data D1 used in the first recognition process (first recognition unit 11) and the image data D1 used in the second recognition process (second recognition unit 12) may be different from each other. Good. For example, before the second recognition process is performed, the robot 3 may be controlled to cause the image capturing unit 4 to capture an image so that the target object 51 is located at the center of the image capturing range. In this case, in the image data D1 used in the second recognition process, since the target object 51 is not located at the periphery of the imaging range, the image of the target object 51 is less likely to be distorted, and the second feature of the target object 51 can be easily recognized. There is an advantage that.

上述の実施形態において、第1認識処理(第1認識部11)及び第2認識処理(第2認識部12)のうちの一方のみで対象物51の位置を認識してもよい。一例として、第1認識処理にて対象物51の種類を認識し、第2認識処理にて対象物51の位置を認識する態様であってもよい。 In the above embodiment, the position of the target object 51 may be recognized by only one of the first recognition process (first recognition unit 11) and the second recognition process (second recognition unit 12). As an example, the type of the target object 51 may be recognized in the first recognition process, and the position of the target object 51 may be recognized in the second recognition process.

上述の実施形態において、例えば箱6の中に対象物51が埋もれているために第1認識処理にて対象物51を認識できない場合が想定される。このような場合、例えばロボット3のハンド32により箱6の中身を撹拌し、撹拌後に再度、第1認識処理を実行してもよい。この態様では、第1認識処理において対象物51を認識する精度を向上することができる、という利点がある。 In the above-described embodiment, it is assumed that the target object 51 cannot be recognized in the first recognition processing because the target object 51 is buried in the box 6, for example. In such a case, for example, the contents of the box 6 may be stirred by the hand 32 of the robot 3 and the first recognition process may be executed again after the stirring. This mode has an advantage that the accuracy of recognizing the target object 51 in the first recognition process can be improved.

上述の実施形態において、第1認識処理は、学習済みのニューラルネットワークを用いた分類器を用いて対象物51の第1特徴を認識しているが、これに限定する趣旨ではない。例えば、第1認識処理は、画像データD1の各画素の輝度を閾値と比較することにより、対象物51の第1特徴を認識してもよい。 In the above-described embodiment, the first recognition process recognizes the first feature of the target object 51 using the classifier using the learned neural network, but the present invention is not limited to this. For example, the first recognition process may recognize the first feature of the object 51 by comparing the brightness of each pixel of the image data D1 with a threshold value.

上述の実施形態において、別情報を加味して第1認識処理及び第2認識処理を実行してもよい。別情報は、一例として、物品5が工場で生産される部品であれば、部品の生産時間帯等である。つまり、第1認識処理及び第2認識処理を実行する際に、別情報として部品の生産時間帯を参照することで、対象物51となり得る物品5の種類を、この生産時間帯に生産される部品に絞ることが可能である。 In the above-described embodiment, the first recognition process and the second recognition process may be executed in consideration of other information. As another example, if the article 5 is a part produced in a factory, the different information is a production time zone of the part or the like. That is, when the first recognition process and the second recognition process are executed, the type of the article 5 that can be the target object 51 is produced in this production time zone by referring to the production time zone of the component as separate information. It is possible to narrow down to parts.

上述の実施形態では、認識システム10は、ロボット3がピッキングする対象物51を複数種類の物品5から認識するために用いられているが、この用途に限定する趣旨ではない。例えば、認識システム10は、ロボット3のピッキングした部品の取付先である対象物51を、基板7上にある複数種類の物品5から認識するために用いられてもよい。具体例として、ロボット3がピッキングした部品がフラットケーブルであれば、認識システム10は、フラットケーブルのコネクタの接続先であるコネクタ(対象物51)を、基板7上にある複数種類の部品(物品5)から認識するために用いられてもよい。この場合、制御部13は、基板7の上方から基板7を撮像するように撮像部4を制御することで、画像データD1を取得すればよい。 In the above-described embodiment, the recognition system 10 is used to recognize the object 51 picked by the robot 3 from the plurality of types of articles 5, but the invention is not limited to this application. For example, the recognition system 10 may be used to recognize the target object 51 to which the picked parts of the robot 3 are attached from the plurality of types of articles 5 on the substrate 7. As a specific example, if the component picked up by the robot 3 is a flat cable, the recognition system 10 sets the connector (target 51) to which the connector of the flat cable is connected to a plurality of types of components (articles) on the substrate 7. 5) may be used for recognition. In this case, the control unit 13 may acquire the image data D1 by controlling the imaging unit 4 so that the substrate 7 is imaged from above the substrate 7.

(まとめ)
以上述べたように、第1の態様に係る認識方法は、第1認識処理と、第2認識処理と、を含む。第1認識処理は、対象物(51)を含む画像データ(D1)から対象物(51)の第1特徴を認識する。第2認識処理では、対象物(51)となり得る複数種類の物品(5)の特徴に対応した複数の認識手段(121)が用意される。第2認識処理は、少なくとも第1認識処理において認識された第1特徴に応じて、複数の認識手段(121)から一の認識手段(121)を選択し、一の認識手段(121)により対象物(51)の第2特徴を認識する。
(Summary)
As described above, the recognition method according to the first aspect includes the first recognition process and the second recognition process. The first recognition process recognizes the first feature of the object (51) from the image data (D1) including the object (51). In the second recognition processing, a plurality of recognition means (121) corresponding to the characteristics of the plurality of types of articles (5) that can be the target object (51) are prepared. The second recognition processing selects at least one recognition means (121) from the plurality of recognition means (121) according to at least the first feature recognized in the first recognition processing, and the one recognition means (121) selects the target. Recognize the second feature of the object (51).

この態様によれば、複数種類の物品(5)から対象物(51)を認識するまでに要する時間のばらつきが生じにくい、という利点がある。 According to this aspect, there is an advantage that the time required for recognizing the object (51) from the plurality of types of articles (5) is unlikely to vary.

第2の態様に係る認識方法では、第1の態様において、第2特徴は、対象物(51)の位置及び姿勢の少なくとも一方を含む。 In the recognition method according to the second aspect, in the first aspect, the second feature includes at least one of the position and the posture of the object (51).

この態様によれば、対象物(51)がどのような物体であるかを認識するだけでなく、対象物(51)がどのように配置されているかをも認識することができる、という利点がある。 According to this aspect, it is possible to recognize not only what kind of object the object (51) is, but also how the object (51) is arranged. is there.

第3の態様に係る認識方法では、第1又は第2の態様において、第1特徴は、対象物(51)の位置を含む。 In the recognition method according to the third aspect, in the first or second aspect, the first feature includes the position of the object (51).

この態様によれば、第1認識処理にて認識された対象物(51)の位置に絞って第2認識処理を実行することが可能になるので、第2認識処理に要する時間の短縮を図りやすい、という利点がある。 According to this aspect, it is possible to perform the second recognition process by narrowing down to the position of the target object (51) recognized in the first recognition process, so that the time required for the second recognition process can be shortened. There is an advantage that it is easy.

第4の態様に係る認識方法では、第1〜第3のいずれかの態様において、第1認識処理及び第2認識処理は、いずれも対象物(51)の位置を認識する。対象物(51)の位置を認識する精度は、第1認識処理よりも第2認識処理の方が高い。 In the recognition method according to the fourth aspect, in any one of the first to third aspects, the first recognition process and the second recognition process both recognize the position of the target object (51). The accuracy of recognizing the position of the object (51) is higher in the second recognition processing than in the first recognition processing.

この態様によれば、第1認識処理のみで対象物(51)の位置を認識する場合と比較して、対象物(51)の位置を認識する精度を向上しやすい、という利点がある。また、この態様によれば、第2認識処理のみで対象物(51)の位置を認識する場合と比較して、第2認識処理に要する時間の短縮を図りやすい、という利点がある。 According to this aspect, there is an advantage that the accuracy of recognizing the position of the target object (51) is easily improved as compared with the case where the position of the target object (51) is recognized only by the first recognition processing. Further, according to this aspect, there is an advantage that the time required for the second recognition processing can be easily shortened as compared with the case where the position of the object (51) is recognized only by the second recognition processing.

第5の態様に係る認識方法では、第1〜第4のいずれかの態様において、第2認識処理は、第1認識処理で用いられる画像データ(D1)と同じ画像データ(D1)を用いて、一の認識手段(121)により対象物(51)の第2特徴を認識する。 In the recognition method according to the fifth aspect, in any one of the first to fourth aspects, the second recognition process uses the same image data (D1) as the image data (D1) used in the first recognition process. , The second recognition means (121) recognizes the second feature of the object (51).

この態様によれば、第1認識処理と第2認識処理とで互いに異なる画像データ(D1)を撮像して取得する場合と比較して、1回の撮像により画像データ(D1)を取得すれば済む。このため、この態様によれば、画像データ(D1)の取得に要する時間の短縮を図りやすい、という利点がある。 According to this aspect, when the image data (D1) is acquired by one image capturing, as compared with the case where the image data (D1) different from each other in the first recognition process and the second recognition process is captured and acquired. I'm done. Therefore, according to this aspect, there is an advantage that it is easy to shorten the time required to acquire the image data (D1).

第6の態様に係る認識方法では、第1〜第5のいずれかの態様において、第1認識処理は、対象物(51)となり得る複数種類の物品(5)の画像データを入力データとして機械学習することで得られる分類器を用いて、対象物(51)の第1特徴を認識する。 In the recognition method according to the sixth aspect, in the first recognition process according to any one of the first to fifth aspects, the first recognition processing is performed by using the image data of a plurality of types of articles (5) that can be the target object (51) as input data. The first feature of the object (51) is recognized using the classifier obtained by learning.

この態様によれば、分類器を用いない場合と比較して、対象物(51)の第1特徴を認識しやすい、という利点がある。 According to this aspect, there is an advantage that the first feature of the object (51) can be easily recognized, as compared with the case where the classifier is not used.

第7の態様に係る認識方法では、第1〜第6のいずれかの態様において、複数の認識手段(121)の各々は、パターンマッチングに用いられるテンプレート(T1)である。 In the recognition method according to the seventh aspect, in any one of the first to sixth aspects, each of the plurality of recognition means (121) is a template (T1) used for pattern matching.

この態様によれば、対象物(51)に応じた適切なテンプレート(T1)を用いて対象物(51)の第2特徴を認識することができるので、対象物(51)の第2特徴を認識しやすくなる、という利点がある。 According to this aspect, the second feature of the target object (51) can be recognized by using the template (T1) appropriate for the target object (51), and thus the second feature of the target object (51) can be recognized. It has the advantage of being easier to recognize.

第8の態様に係る認識方法では、第1〜第6のいずれかの態様において、複数の認識手段(121)の各々は、対象物(51)の第2特徴を認識するための認識アルゴリズムである。 In the recognition method according to an eighth aspect, in any one of the first to sixth aspects, each of the plurality of recognition means (121) is a recognition algorithm for recognizing the second feature of the object (51). is there.

この態様によれば、対象物(51)に応じた適切な認識アルゴリズムを用いて対象物(51)の第2特徴を認識することができるので、対象物(51)の第2特徴を認識しやすくなる、という利点がある。 According to this aspect, the second feature of the target object (51) can be recognized by using an appropriate recognition algorithm corresponding to the target object (51), and thus the second feature of the target object (51) can be recognized. There is an advantage that it becomes easier.

第9の態様に係る認識方法では、第1〜第8のいずれかの態様において、第2認識処理は、第1認識処理において認識された第1特徴に基づいて、画像データ(D1)において一の認識手段(121)を適用する範囲を限定する。 In the recognition method according to the ninth aspect, in any one of the first to eighth aspects, the second recognition process is performed on the image data (D1) based on the first feature recognized in the first recognition process. The range to which the recognition means (121) is applied is limited.

この態様によれば、画像データ(D1)の全体に対して一の認識手段(121)を適用する場合と比較して、第2認識処理に要する時間の短縮を図りやすい、という利点がある。 According to this aspect, there is an advantage that the time required for the second recognition processing can be easily shortened as compared with the case where one recognition means (121) is applied to the entire image data (D1).

第10の態様に係る認識システム(10)は、第1認識部(11)と、第2認識部(12)と、を備える。第1認識部(11)は、対象物(51)を含む画像データ(D1)から対象物(51)の第1特徴を認識する。第2認識部(12)では、対象物(51)となり得る複数種類の物品(5)の特徴に対応した複数の認識手段(121)が用意される。第2認識部(12)は、少なくとも第1認識部(11)において認識された第1特徴に応じて、複数の認識手段(121)から一の認識手段(121)を選択し、一の認識手段(121)により対象物(51)の第2特徴を認識する。 The recognition system (10) according to the tenth aspect includes a first recognition unit (11) and a second recognition unit (12). The first recognition unit (11) recognizes the first feature of the target object (51) from the image data (D1) including the target object (51). The second recognition unit (12) is provided with a plurality of recognition means (121) corresponding to the characteristics of the plurality of types of articles (5) that can be the target object (51). The second recognition unit (12) selects one recognition unit (121) from the plurality of recognition units (121) according to at least the first feature recognized by the first recognition unit (11), and performs one recognition. The second feature of the object (51) is recognized by the means (121).

この態様によれば、複数種類の物品(5)から対象物(51)を認識するまでに要する時間のばらつきが生じにくい、という利点がある。 According to this aspect, there is an advantage that the time required for recognizing the object (51) from the plurality of types of articles (5) is unlikely to vary.

第11の態様に係るロボット制御方法は、第1〜第9のいずれかの態様の認識方法により認識された対象物(51)の第1特徴及び第2特徴に基づいて、対象物(51)をピッキングするロボット(3)を制御する。 A robot control method according to an eleventh aspect is based on the first feature and the second feature of the object (51) recognized by the recognition method according to any one of the first to ninth aspects. Control a robot (3) for picking.

この態様によれば、複数の物品(5)から対象物(51)を認識するまでに要する時間のばらつきが生じにくい、という利点がある。 According to this aspect, there is an advantage that the time required for recognizing the object (51) from the plurality of articles (5) hardly varies.

第12の態様に係るロボット制御システム(100)は、対象物(51)をピッキングするロボット(3)を制御する制御部(13)を備える。制御部(13)は、第1〜第9のいずれかの認識方法により認識された対象物(51)の第1特徴及び第2特徴に基づいて、ロボット(3)を制御する。 The robot control system (100) according to the twelfth aspect includes a control unit (13) that controls a robot (3) that picks an object (51). The control unit (13) controls the robot (3) based on the first feature and the second feature of the object (51) recognized by any of the first to ninth recognition methods.

この態様によれば、複数種類の物品(5)から対象物(51)を認識するまでに要する時間のばらつきが生じにくい、という利点がある。 According to this aspect, there is an advantage that the time required for recognizing the object (51) from the plurality of types of articles (5) is unlikely to vary.

第13の態様に係るロボットシステムは、対象物(51)をピッキングするロボット(3)と、ロボット(3)を制御する制御部(13)と、を備える。制御部(13)は、第1〜第9のいずれかの態様の認識方法により認識された対象物(51)の第1特徴及び第2特徴に基づいて、ロボット(3)を制御する。 The robot system according to the thirteenth aspect includes a robot (3) that picks an object (51) and a control unit (13) that controls the robot (3). The control unit (13) controls the robot (3) based on the first feature and the second feature of the object (51) recognized by the recognition method according to any one of the first to ninth aspects.

この態様によれば、複数種類の物品(5)から対象物(51)を認識するまでに要する時間のばらつきが生じにくい、という利点がある。 According to this aspect, there is an advantage that the time required to recognize the target object (51) from the plurality of types of articles (5) hardly varies.

第14の態様に係る認識プログラムは、1以上のプロセッサに、第1〜第9のいずれかの態様の認識方法を実行させるためのプログラムである。 The recognition program according to the fourteenth aspect is a program for causing one or more processors to execute the recognition method according to any one of the first to ninth aspects.

この態様によれば、複数種類の物品(5)から対象物(51)を認識するまでに要する時間のばらつきが生じにくい、という利点がある。 According to this aspect, there is an advantage that the time required for recognizing the object (51) from the plurality of types of articles (5) is unlikely to vary.

第15の態様に係るロボット制御プログラムは、1以上のプロセッサに、第11の態様に係るロボット制御方法を実行させるためのプログラムである。 The robot control program according to the fifteenth aspect is a program for causing one or more processors to execute the robot control method according to the eleventh aspect.

この態様によれば、複数種類の物品(5)から対象物(51)を認識するまでに要する時間のばらつきが生じにくい、という利点がある。 According to this aspect, there is an advantage that the time required for recognizing the object (51) from the plurality of types of articles (5) is unlikely to vary.

第2〜第9の態様に係る方法については、認識方法に必須の方法ではなく、適宜省略可能である。 The methods according to the second to ninth aspects are not essential for the recognition method and can be omitted as appropriate.

10 認識システム
11 第1認識部
12 第2認識部
121 認識手段
3 ロボット
5 物品
51 対象物
100 ロボット制御システム
D1 画像データ
T1 テンプレート
10 recognition system 11 1st recognition part 12 2nd recognition part 121 recognition means 3 robot 5 article 51 object 100 robot control system D1 image data T1 template

Claims (15)

対象物を含む画像データから前記対象物の第1特徴を認識する第1認識処理と、
前記対象物となり得る複数種類の物品の特徴に対応した複数の認識手段が用意され、少なくとも前記第1認識処理において認識された前記第1特徴に応じて、前記複数の認識手段から一の認識手段を選択し、前記一の認識手段により前記対象物の第2特徴を認識する第2認識処理と、を含む、
認識方法。
A first recognition process for recognizing a first feature of the object from image data including the object;
A plurality of recognition means corresponding to the characteristics of a plurality of types of articles that can be the object are prepared, and one recognition means from the plurality of recognition means is at least according to the first characteristics recognized in the first recognition processing. And a second recognition process for recognizing the second feature of the object by the one recognition means.
Recognition method.
前記第2特徴は、前記対象物の位置及び姿勢の少なくとも一方を含む、
請求項1記載の認識方法。
The second feature includes at least one of a position and a posture of the object,
The recognition method according to claim 1.
前記第1特徴は、前記対象物の位置を含む、
請求項1又は2に記載の認識方法。
The first feature includes a position of the object,
The recognition method according to claim 1 or 2.
前記第1認識処理及び前記第2認識処理は、いずれも前記対象物の位置を認識し、
前記対象物の位置を認識する精度は、前記第1認識処理よりも前記第2認識処理の方が高い、
請求項1〜3のいずれか1項に記載の認識方法。
The first recognition process and the second recognition process both recognize the position of the object,
The accuracy of recognizing the position of the object is higher in the second recognition process than in the first recognition process,
The recognition method according to claim 1.
前記第2認識処理は、前記第1認識処理で用いられる前記画像データと同じ画像データを用いて、前記一の認識手段により前記対象物の前記第2特徴を認識する、
請求項1〜4のいずれか1項に記載の認識方法。
In the second recognition process, the second feature of the object is recognized by the one recognition unit using the same image data as the image data used in the first recognition process,
The recognition method according to any one of claims 1 to 4.
前記第1認識処理は、前記対象物となり得る複数種類の物品の画像データを入力データとして機械学習することで得られる分類器を用いて、前記対象物の前記第1特徴を認識する、
請求項1〜5のいずれか1項に記載の認識方法。
The first recognition processing recognizes the first feature of the target object using a classifier obtained by machine learning using image data of a plurality of types of articles that can be the target object as input data.
The recognition method according to claim 1.
前記複数の認識手段の各々は、パターンマッチングに用いられるテンプレートである、
請求項1〜6のいずれか1項に記載の認識方法。
Each of the plurality of recognition means is a template used for pattern matching,
The recognition method according to claim 1.
前記複数の認識手段の各々は、前記対象物の前記第2特徴を認識するための認識アルゴリズムである、
請求項1〜6のいずれか1項に記載の認識方法。
Each of the plurality of recognition means is a recognition algorithm for recognizing the second feature of the object,
The recognition method according to claim 1.
前記第2認識処理は、前記第1認識処理において認識された前記第1特徴に基づいて、前記画像データにおいて前記一の認識手段を適用する範囲を限定する、
請求項1〜8のいずれか1項に記載の認識方法。
The second recognition process limits a range to which the one recognition unit is applied in the image data, based on the first feature recognized in the first recognition process,
The recognition method according to claim 1.
対象物を含む画像データから前記対象物の第1特徴を認識する第1認識部と、
前記対象物となり得る複数種類の物品の特徴に対応した複数の認識手段が用意され、少なくとも前記第1認識部において認識された前記第1特徴に応じて、前記複数の認識手段から一の認識手段を選択し、前記一の認識手段により前記対象物の第2特徴を認識する第2認識部と、を備える、
認識システム。
A first recognition unit for recognizing a first feature of the object from image data including the object;
A plurality of recognizing means corresponding to the characteristics of a plurality of types of articles that can be the object are prepared, and one recognizing means from the plurality of recognizing means according to at least the first feature recognized by the first recognizing unit. And a second recognition unit that recognizes the second feature of the object by the one recognition unit.
Recognition system.
請求項1〜9のいずれか1項に記載の認識方法により認識された前記対象物の前記第1特徴及び前記第2特徴に基づいて、前記対象物をピッキングするロボットを制御する、
ロボット制御方法。
Controlling a robot that picks the object based on the first feature and the second feature of the object recognized by the recognition method according to any one of claims 1 to 9;
Robot control method.
前記対象物をピッキングするロボットを制御する制御部を備え、
前記制御部は、請求項1〜9のいずれか1項に記載の認識方法により認識された前記対象物の前記第1特徴及び前記第2特徴に基づいて、前記ロボットを制御する、
ロボット制御システム。
A control unit for controlling a robot for picking the object,
The control unit controls the robot based on the first feature and the second feature of the object recognized by the recognition method according to claim 1.
Robot control system.
前記対象物をピッキングするロボットと、
前記ロボットを制御する制御部と、を備え、
前記制御部は、請求項1〜9のいずれか1項に記載の認識方法により認識された前記対象物の前記第1特徴及び前記第2特徴に基づいて、前記ロボットを制御する、
ロボットシステム。
A robot for picking the object,
A control unit for controlling the robot,
The control unit controls the robot based on the first feature and the second feature of the object recognized by the recognition method according to claim 1.
Robot system.
1以上のプロセッサに、
請求項1〜9のいずれか1項に記載の認識方法を実行させるための、
認識プログラム。
On one or more processors,
For executing the recognition method according to any one of claims 1 to 9,
Recognition program.
1以上のプロセッサに、
請求項11記載のロボット制御方法を実行させるための、
ロボット制御プログラム。
On one or more processors,
For executing the robot control method according to claim 11,
Robot control program.
JP2018246282A 2018-12-27 2018-12-27 Recognition method, recognition system, robot control method, robot control system, robot system, recognition program, and robot control program Active JP7253731B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018246282A JP7253731B2 (en) 2018-12-27 2018-12-27 Recognition method, recognition system, robot control method, robot control system, robot system, recognition program, and robot control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018246282A JP7253731B2 (en) 2018-12-27 2018-12-27 Recognition method, recognition system, robot control method, robot control system, robot system, recognition program, and robot control program

Publications (2)

Publication Number Publication Date
JP2020107142A true JP2020107142A (en) 2020-07-09
JP7253731B2 JP7253731B2 (en) 2023-04-07

Family

ID=71449186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018246282A Active JP7253731B2 (en) 2018-12-27 2018-12-27 Recognition method, recognition system, robot control method, robot control system, robot system, recognition program, and robot control program

Country Status (1)

Country Link
JP (1) JP7253731B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102362256B1 (en) * 2021-07-28 2022-02-15 주식회사 코봇 Smart order fulfillment system using AI based autonomous modularized robot platform
KR102362205B1 (en) * 2021-07-21 2022-02-15 주식회사 코봇 Autonomous mobile robot for smart order fulfillment system
KR102383648B1 (en) * 2021-07-28 2022-04-11 주식회사 코봇 Method of performing smart order fulfillment using AI based autonomous driving modularized robot platform
KR20220067719A (en) * 2020-11-18 2022-05-25 한국기술교육대학교 산학협력단 Apparatus and method of robot control through vision recognition using deep learning and marker
WO2022264436A1 (en) * 2021-06-15 2022-12-22 ソニーグループ株式会社 Information processing device, information processing method, program, and information processing system
WO2023127575A1 (en) * 2021-12-29 2023-07-06 川崎重工業株式会社 Object detection device, robot system, and object detection program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018128897A (en) * 2017-02-09 2018-08-16 国立大学法人名古屋大学 Detection method and detection program for detecting attitude and the like of object

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018128897A (en) * 2017-02-09 2018-08-16 国立大学法人名古屋大学 Detection method and detection program for detecting attitude and the like of object

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PEI-CHI HUANG ET AL.: "A Case Study of Cyber-Physical System Design: Autonomous Pick-and-Place Robot", 2018 IEEE 24TH INTERNATIONAL CONFERENCE ON EMBEDDED AND REAL-TIME COMPUTING SYSTEMS AND APPLICATIONS, JPN7022004929, 28 August 2018 (2018-08-28), pages 22 - 31, XP033495980, ISSN: 0004903684, DOI: 10.1109/RTCSA.2018.00012 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220067719A (en) * 2020-11-18 2022-05-25 한국기술교육대학교 산학협력단 Apparatus and method of robot control through vision recognition using deep learning and marker
KR102452315B1 (en) * 2020-11-18 2022-10-06 한국기술교육대학교 산학협력단 Apparatus and method of robot control through vision recognition using deep learning and marker
WO2022264436A1 (en) * 2021-06-15 2022-12-22 ソニーグループ株式会社 Information processing device, information processing method, program, and information processing system
KR102362205B1 (en) * 2021-07-21 2022-02-15 주식회사 코봇 Autonomous mobile robot for smart order fulfillment system
KR102362256B1 (en) * 2021-07-28 2022-02-15 주식회사 코봇 Smart order fulfillment system using AI based autonomous modularized robot platform
KR102383648B1 (en) * 2021-07-28 2022-04-11 주식회사 코봇 Method of performing smart order fulfillment using AI based autonomous driving modularized robot platform
WO2023127575A1 (en) * 2021-12-29 2023-07-06 川崎重工業株式会社 Object detection device, robot system, and object detection program

Also Published As

Publication number Publication date
JP7253731B2 (en) 2023-04-07

Similar Documents

Publication Publication Date Title
JP7253731B2 (en) Recognition method, recognition system, robot control method, robot control system, robot system, recognition program, and robot control program
US11004191B2 (en) Industrial device image recognition processor and controller
CN106945035B (en) Robot control apparatus, robot system, and control method for robot control apparatus
US20180260669A1 (en) Image processing apparatus, image processing method, template generation apparatus, object recognition processor, and object recognition processing program
Nerakae et al. Using machine vision for flexible automatic assembly system
CN114820772B (en) System and method for object detection based on image data
EP3376433B1 (en) Image processing apparatus, image processing method, and image processing program
CN111199562A (en) System and method for rapid object detection while robotic picking
Chen et al. Random bin picking with multi-view image acquisition and CAD-based pose estimation
CN115648176A (en) Vision-guided pick-and-place method, mobile robot, and computer-readable storage medium
US20230330858A1 (en) Fine-grained industrial robotic assemblies
JP6844803B1 (en) Method and calculation system for object recognition or object registration based on image classification
WO2023083273A1 (en) Grip point information acquisition method and apparatus, electronic device, and storage medium
WO2023082417A1 (en) Grabbing point information obtaining method and apparatus, electronic device, and storage medium
Bhuyan et al. Structure‐aware multiple salient region detection and localization for autonomous robotic manipulation
CN115194751A (en) Robot system, control method, image processing apparatus and method, and product manufacturing method
Tiwan et al. Cylindrical pellet pose estimation in clutter using a single robot mounted camera
TWI716926B (en) Object posture recognition method and system and computer program product
TWI834495B (en) Object posture recognition method and system
JP2020110851A (en) Picking system
WO2021246217A1 (en) Object detection method, object detection device, and program
WO2023171687A1 (en) Robot control device and robot control method
CN117377987A (en) Transformation of covariate offsets of a grip neural network
Gabani et al. Efficient Object Manipulation in Confined Space Using Compliant Based Gripper
Lin et al. Vision-based Robotic Arm Control for Screwdriver Bit Placement Tasks.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230317

R151 Written notification of patent or utility model registration

Ref document number: 7253731

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151