JP7261306B2 - 情報処理装置、設定装置、画像認識システム、ロボットシステム、設定方法、学習装置、及び学習済みモデルの生成方法 - Google Patents
情報処理装置、設定装置、画像認識システム、ロボットシステム、設定方法、学習装置、及び学習済みモデルの生成方法 Download PDFInfo
- Publication number
- JP7261306B2 JP7261306B2 JP2021542968A JP2021542968A JP7261306B2 JP 7261306 B2 JP7261306 B2 JP 7261306B2 JP 2021542968 A JP2021542968 A JP 2021542968A JP 2021542968 A JP2021542968 A JP 2021542968A JP 7261306 B2 JP7261306 B2 JP 7261306B2
- Authority
- JP
- Japan
- Prior art keywords
- size
- index
- image
- indicated
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 183
- 238000000034 method Methods 0.000 title claims description 97
- 238000012545 processing Methods 0.000 claims description 189
- 238000001514 detection method Methods 0.000 claims description 95
- 238000003384 imaging method Methods 0.000 claims description 56
- 230000008569 process Effects 0.000 claims description 56
- 239000000284 extract Substances 0.000 claims description 9
- 238000010801 machine learning Methods 0.000 claims description 8
- 238000004458 analytical method Methods 0.000 description 57
- 238000010586 diagram Methods 0.000 description 45
- 230000006870 function Effects 0.000 description 37
- 238000012937 correction Methods 0.000 description 33
- 238000006243 chemical reaction Methods 0.000 description 23
- 238000012217 deletion Methods 0.000 description 17
- 230000037430 deletion Effects 0.000 description 17
- 230000002194 synthesizing effect Effects 0.000 description 16
- 239000013256 coordination polymer Substances 0.000 description 12
- 238000007792 addition Methods 0.000 description 11
- 239000012636 effector Substances 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000010079 rubber tapping Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000005484 gravity Effects 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 5
- 239000000470 constituent Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001179 sorption measurement Methods 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 230000008719 thickening Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
- G05B19/41815—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell
- G05B19/4182—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell manipulators and conveyor only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/409—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/4155—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0014—Image feed-back for automatic industrial control, e.g. robot with camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40554—Object recognition to track object on conveyor
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/50—Machine tool, machine tool null till machine tool work handling
- G05B2219/50391—Robot
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Manufacturing & Machinery (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Quality & Reliability (AREA)
- Robotics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- General Engineering & Computer Science (AREA)
- Manipulator (AREA)
Description
実施の形態に係るロボットシステム1の構成を説明する。図1は、実施の形態に係るロボットシステム1の構成の一例を示す平面図である。図2は、実施の形態に係るロボットシステム1の構成の一例を示すブロック図である。
図4は、実施の形態に係る情報処理装置300のハードウェア構成の一例を示すブロック図である。図4に示すように、情報処理装置300は、CPU(Central Processing Unit)301と、ROM(Read Only Memory)302と、RAM(Random Access Memory)303と、メモリ304と、撮像素子I/F(インタフェース:Interface)305と、画像プロセッサ306と、入出力I/F307~309とを構成要素として含む。上記構成要素はそれぞれ、バス、有線通信又は無線通信を介して接続されている。なお、上記構成要素の全てが必須ではない。
図5は、実施の形態に係るロボット制御装置600のハードウェア構成の一例を示すブロック図である。図5に示すように、ロボット制御装置600は、CPU601と、ROM602と、RAM603と、メモリ604と、入出力I/F605と、アーム駆動回路606と、コンベヤ駆動回路607と、負圧駆動回路608と、開閉駆動回路609とを構成要素として含む。上記構成要素はそれぞれ、バス、有線通信又は無線通信を介して接続されている。なお、上記構成要素の全てが必須ではない。本実施の形態では、ロボット100A及び100Bに対して1つのロボット制御装置600が設けられるが、ロボット100A及び100Bに個別にロボット制御装置600が設けられてもよい。
図6は、実施の形態に係る情報処理装置300の機能的構成の一例を示すブロック図である。図6に示すように、情報処理装置300は、撮像制御部3001と、画像処理部3002と、指標処理部3003及び3004と、画像合成部3005及び3006と、入力解析部3007及び3008と、変換部3009及び3010と、機能設定部3011と、記憶部3012とを機能的構成要素として含む。上記機能的構成要素の全てが必須ではない。
実施の形態に係るロボットシステム1の動作を説明する。具体的には、ロボットシステム1が、ベルトコンベヤ200上の瓶をロボット制御装置600に認識させる動作を説明する。図18は、実施の形態に係るロボットシステム1の動作の一例を示すフローチャートである。
実施の形態に係る情報処理装置300において、入力解析部3007及び3008は、位置検出部として機能し、対象物である瓶が映し出される画面上で指示される瓶の指示位置を検出し、サイズ検出部として機能し、画面上で指示される瓶の指示サイズを検出する。変換部3009及び3010は、位置情報検出部として機能し、指示位置に基づき瓶の実物の位置を検出し、サイズ情報検出部として機能し、指示サイズに基づき瓶の実物のサイズを検出し、出力部として瓶の実物の位置及びサイズの情報を含む対象物情報を出力する。指標処理部3003及び3004は、指示位置を表す位置指標と瓶の実物のサイズを表すサイズ指標とを生成し画面上に表示する。なお、入力解析部3007及び3008は、画面上でなされた指示が形成する軌跡に対応するサイズを指示サイズとして検出してもよい。
以上、本開示の実施の形態の例について説明したが、本開示は、上記実施の形態に限定されない。すなわち、本開示の範囲内で種々の変形及び改良が可能である。例えば、各種変形を実施の形態に施したもの、及び、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の範囲内に含まれる。
以下、実施の形態の変形例について説明する。本例では、上記図6に示す情報処理装置300の画像処理部3002が、機械学習により予め生成された学習済みモデルを用いて、撮像装置500により生成されたカメラ画像から瓶の位置、色、及びサイズ等を検出することで、認識精度の向上を実現する。
図19は、学習装置700の機能的構成例を示すブロック図である。図20は、学習用DB(データベース)710の内容例を示す図である。
図23は、ロボットシステム1において実現される、学習済みモデルを用いた識別処理の手順例を示す図である。識別処理は、撮像装置500がベルトコンベヤ200上の瓶Wを撮像すると開始される。図24は、学習済みモデルを用いた識別処理を説明するための図である。なお、以下の説明では、上記図6に示す情報処理装置300の各機能部との関係についても言及する。
学習済みモデルの再学習は、修正保存DB3013に保存された修正内容を用いて、上記図19に示した学習装置700により行われる。
10 設定装置
20 画像認識システム
100,100A,100B ロボット
300 情報処理装置
400,400A,400B 入出力装置
410 タッチスクリーン
500 撮像装置
600 ロボット制御装置
3002 画像処理部(第1画像処理部、第2画像処理部、第3画像処理部)
3003,3004 指標処理部
3005,3006 画像合成部
3007,3008 入力解析部(位置検出部、サイズ検出部、姿勢検出部)
3009,3010 変換部(位置情報検出部、サイズ情報検出部、姿勢情報検出部、出力部)
W 瓶(対象物)
Claims (31)
- 対象物が映し出される画面上で指示される前記対象物の位置である指示位置を検出する位置検出部と、
前記画面上で指示される前記対象物の属性である指示属性を検出する属性検出部と、
前記指示位置に基づき、前記対象物の実物の位置を検出する位置情報検出部と、
前記指示属性に基づき、前記対象物の実物の属性を検出する属性情報検出部と、
前記指示位置を表す位置指標と前記対象物の実物の属性を表す属性指標とを生成し前記画面上に表示する指標処理部と、
前記対象物の実物の位置及び属性の情報を含む対象物情報を出力する出力部とを含み、
前記位置検出部及び前記属性検出部の少なくとも1つは、第1の処理を行い、
前記第1の処理では、前記位置検出部は、前記画面上で加えられる前記位置指標への修正又は削除の指示を検出し、前記指示に従って前記指示位置を修正又は削除し、
前記位置情報検出部は、前記第1の処理で修正又は削除された前記指示位置に基づき、前記対象物の実物の位置の情報を修正又は削除し、
前記指標処理部は、前記第1の処理で修正又は削除された前記指示位置に基づき、前記位置指標を修正又は削除し、
前記出力部は、前記第1の処理に基づき修正又は削除された前記対象物の実物の位置の情報を含む前記対象物情報を出力し、
前記第1の処理では、前記属性検出部は、前記画面上で加えられる前記属性指標への修正又は削除の指示を検出し、前記指示に従って前記指示属性を修正又は削除し、
前記属性情報検出部は、前記第1の処理で修正又は削除された前記指示属性に基づき、前記対象物の実物の属性の情報を修正又は削除し、
前記指標処理部は、前記第1の処理で修正又は削除された前記指示属性に基づき、前記属性指標を修正又は削除し、
前記出力部は、前記第1の処理に基づき修正又は削除された前記対象物の実物の属性の情報を含む前記対象物情報を出力する、
情報処理装置。 - 前記属性検出部は、前記画面上で指示される前記対象物のサイズである指示サイズを検出するサイズ検出部であり、
前記属性情報検出部は、前記指示サイズに基づき、前記対象物の実物のサイズを検出するサイズ情報検出部であり、
前記指標処理部は、前記指示位置を表す位置指標と前記対象物の実物のサイズを表すサイズ指標とを生成し前記画面上に表示し、
前記出力部は、前記対象物の実物の位置及びサイズの情報を含む対象物情報を出力する、
請求項1に記載の情報処理装置。 - 前記対象物が映し出される画像を処理することで前記画像から前記対象物を抽出し、抽出された前記対象物の実物の位置及びサイズを検出する第1画像処理部をさらに含み、
前記指標処理部は、前記第1画像処理部によって検出された前記対象物の実物の位置及びサイズに対応する前記位置指標及び前記サイズ指標を生成し表示する、
請求項2に記載の情報処理装置。 - 前記第1の処理では、前記サイズ検出部は、前記画面上で加えられる前記サイズ指標への修正又は削除の指示を検出し、前記指示に従って前記指示サイズを修正又は削除し、
前記サイズ情報検出部は、前記第1の処理で修正又は削除された前記指示サイズに基づき、前記対象物の実物のサイズの情報を修正又は削除し、
前記指標処理部は、前記第1の処理に基づき修正又は削除された前記対象物の実物のサイズに基づき、前記サイズ指標を修正又は削除し、
前記出力部は、前記第1の処理に基づき修正又は削除された前記対象物の実物のサイズの情報を含む前記対象物情報を出力する、
請求項2または3に記載の情報処理装置。 - 前記サイズ検出部は、前記画面上でなされた指示が形成する軌跡に対応するサイズを前記指示サイズとして検出する、
請求項2~4のいずれか一項に記載の情報処理装置。 - 前記属性検出部は、前記画面上で指示される前記対象物の姿勢である指示姿勢を検出する姿勢検出部であり、
前記属性情報検出部は、前記指示姿勢に基づき、前記対象物の実物の姿勢を検出する姿勢情報検出部であり、
前記指標処理部は、前記指示位置を表す位置指標と前記指示姿勢を表す姿勢指標とを生成し前記画面上に表示し、
前記出力部は、前記対象物の実物の位置及び姿勢の情報を含む対象物情報を出力する、
請求項1に記載の情報処理装置。 - 前記対象物が映し出される画像を処理することで、前記画像から前記対象物を抽出し且つ抽出された前記対象物の実物の位置及び姿勢を検出する第1画像処理部をさらに含み、
前記指標処理部は、前記第1画像処理部によって検出された前記対象物の実物の位置及び姿勢に対応する前記位置指標及び前記姿勢指標を生成し表示する、
請求項6に記載の情報処理装置。 - 前記第1の処理では、前記姿勢検出部は、前記画面上で加えられる前記姿勢指標への修正又は削除の指示を検出し、前記指示に従って前記指示姿勢を修正又は削除し、
前記姿勢情報検出部は、前記第1の処理で修正又は削除された前記指示姿勢に基づき、前記対象物の実物の姿勢の情報を修正又は削除し、
前記指標処理部は、前記第1の処理で修正又は削除された前記指示姿勢に基づき、前記姿勢指標を修正又は削除し、
前記出力部は、前記第1の処理に基づき修正又は削除された前記対象物の実物の姿勢の情報を含む前記対象物情報を出力する、
請求項6または7に記載の情報処理装置。 - 前記姿勢検出部は、前記画面上でなされた指示が形成する軌跡に対応する方向を前記指示姿勢として検出する、
請求項6~8のいずれか一項に記載の情報処理装置。 - 前記画面上で指示される前記対象物のサイズである指示サイズを検出するサイズ検出部と、
前記指示サイズに基づき、前記対象物の実物のサイズを検出するサイズ情報検出部とをさらに含み、
前記指標処理部は、前記対象物の実物のサイズを表すサイズ指標をさらに生成し前記画面上に表示し、
前記出力部は、前記対象物の実物のサイズの情報をさらに含む前記対象物情報を出力する、
請求項6~9のいずれか一項に記載の情報処理装置。 - 前記対象物が映し出される画像を処理することで、前記画像から前記対象物を抽出し且つ抽出された前記対象物の実物のサイズを検出する第2画像処理部をさらに含み、
前記指標処理部は、前記第2画像処理部によって検出された前記対象物の実物のサイズに対応する前記サイズ指標を生成し表示する、
請求項10に記載の情報処理装置。 - 前記サイズ検出部は、前記画面上で加えられる前記サイズ指標への修正又は削除の指示を検出し、前記指示に従って前記指示サイズを修正又は削除し、
前記サイズ情報検出部は、修正又は削除された前記指示サイズに基づき、前記対象物の実物のサイズの情報を修正又は削除し、
前記指標処理部は、修正又は削除された前記対象物の実物のサイズに基づき、前記サイズ指標を修正又は削除し、
前記出力部は、修正又は削除された前記対象物の実物のサイズの情報を含む前記対象物情報を出力する、
請求項10または11に記載の情報処理装置。 - 前記サイズ検出部は、前記画面上でなされた指示が形成する軌跡に対応するサイズを前記指示サイズとして検出する、
請求項10~12のいずれか一項に記載の情報処理装置。 - 前記出力部は、前記対象物情報を、前記対象物の実物に対する処理作業を行うロボットを制御する制御装置に出力する、
請求項1~13のいずれか一項に記載の情報処理装置。 - 前記対象物が映し出される画像を処理することで前記画像から前記対象物の実物の位置及び属性を検出する画像処理部をさらに含み、
前記指標処理部は、前記画像処理部によって検出された前記対象物の実物の位置及び属性に対応する前記位置指標及び前記属性指標を生成し表示する、
請求項1~14のいずれか一項に記載の情報処理装置。 - 前記画像処理部は、学習用画像を入力データとし、前記学習用画像に含まれる対象物の位置及び属性を教師データとして機械学習により予め生成された学習済みモデルを用いて、前記画像から前記対象物の実物の位置及び属性を検出する、
請求項15に記載の情報処理装置。 - 前記位置検出部によって修正された前記指示位置を前記画像と関連付けて保存する保存処理部をさらに備える、
請求項15または16に記載の情報処理装置。 - 前記属性検出部によって修正された前記指示属性を前記画像と関連付けて保存する保存処理部を備える、
請求項15~17のいずれか一項に記載の情報処理装置。 - 前記画像は、前記対象物をセンシングするセンシング部により生成された検出画像である、
請求項15~18のいずれか一項に記載の情報処理装置。 - 前記対象物の属性は、前記対象物のサイズ、姿勢、色、又は状態である、
請求項1~19のいずれか一項に記載の情報処理装置。 - 学習用画像並びに前記学習用画像に含まれる対象物の位置及び属性を取得する取得部と、
前記学習用画像を入力データとし、前記対象物の位置及び属性を教師データとして、画像から対象物の位置及び属性を推定するための学習済みモデルを機械学習により生成する学習部と、
を備え、
前記取得部は、請求項17または18に記載の情報処理装置において保存された画像並びに修正された対象物の指示位置及び指示属性のうちの少なくとも1つを取得し、
前記学習部は、前記画像を入力データとし、修正された前記対象物の指示位置及び指示属性のうちの少なくとも1つを教師データとして、前記学習済みモデルの再学習を行う、
学習装置。 - 学習用画像並びに前記学習用画像に含まれる対象物の位置及び属性を取得することと、
前記学習用画像を入力データとし、前記対象物の位置及び属性を教師データとして、画像から対象物の位置及び属性を推定するための学習済みモデルを機械学習により生成することと、
請求項17または18に記載の情報処理装置において保存された画像並びに修正された対象物の指示位置及び指示属性のうちの少なくとも1つを取得することと、
前記画像を入力データとし、修正された前記対象物の指示位置及び指示属性のうちの少なくとも1つを教師データとして、前記学習済みモデルの再学習を行うこととを含む、
学習済みモデルの生成方法。 - 請求項1~20のいずれか一項に記載の情報処理装置と、
前記画面を表示するディスプレイと、
前記指示の入力を受け付け前記情報処理装置に出力する入力装置とを備える、
設定装置。 - 前記ディスプレイの機能と前記入力装置の機能とを含むタッチスクリーンを備える、
請求項23に記載の設定装置。 - 請求項23または24に記載の設定装置と、
前記対象物の実物を撮像し、撮像された画像を前記設定装置に出力する撮像装置とを備える、
画像認識システム。 - 前記情報処理装置は、前記対象物の実物が撮像された画像を処理することで、前記画像から前記対象物を抽出し且つ抽出された前記対象物の実物の位置、サイズ及び姿勢を検出する第3画像処理部をさらに含み、
前記指標処理部は、前記第3画像処理部によって検出された前記対象物の実物の位置、サイズ及び姿勢に対応する前記位置指標、サイズ指標及び姿勢指標を生成し前記ディスプレイの画面上に表示する、
請求項25に記載の画像認識システム。 - 請求項25または26に記載の画像認識システムと、
前記対象物の実物に対する処理作業を行うロボットと、
前記ロボットを制御する制御装置とを備え、
前記制御装置は、前記情報処理装置の前記出力部から出力される前記対象物情報を用いて、前記対象物の実物を認識し、前記ロボットに前記対象物の実物を処理させる、
ロボットシステム。 - 画面上に映し出される対象物の実物を認識するための前記対象物の位置及びサイズの設定方法であって、
前記画面上で指示される前記対象物の位置である指示位置を検出することと、
前記画面上で指示される前記対象物のサイズである指示サイズを検出することと、
前記指示位置に基づき、前記対象物の実物の位置を検出することと、
前記指示サイズに基づき、前記対象物の実物のサイズを検出することと、
前記指示位置を表す位置指標と前記対象物の実物のサイズを表すサイズ指標とを生成し前記画面上に表示することと、
前記対象物の実物の位置及びサイズの情報を含む対象物情報を出力することと、
前記画面上で加えられる前記位置指標への修正又は削除の指示を検出し、前記指示に従って前記指示位置を修正又は削除すること、及び、前記画面上で加えられる前記サイズ指標への修正又は削除の指示を検出し、前記指示に従って前記指示サイズを修正又は削除することのうちの少なくとも1つを含む第1の処理を実行することと、
前記第1の処理で修正又は削除された前記指示位置に基づき、前記対象物の実物の位置の情報を修正又は削除することと、
前記第1の処理で修正又は削除された前記指示位置に基づき、前記位置指標を修正又は削除することと、
前記第1の処理に基づき修正又は削除された前記対象物の実物の位置の情報を含む前記対象物情報を出力することと、
前記第1の処理で修正又は削除された前記指示サイズに基づき、前記対象物の実物のサイズの情報を修正又は削除することと、
前記第1の処理に基づき修正又は削除された前記対象物の実物のサイズに基づき、前記サイズ指標を修正又は削除することと、
前記第1の処理に基づき修正又は削除された前記対象物の実物のサイズの情報を含む前記対象物情報を出力することとを含む、
設定方法。 - 画面上に映し出される対象物の実物を認識するための前記対象物の位置及び姿勢の設定方法であって、
前記画面上で指示される前記対象物の位置である指示位置を検出することと、
前記画面上で指示される前記対象物の姿勢である指示姿勢を検出することと、
前記指示位置に基づき、前記対象物の実物の位置を検出することと、
前記指示姿勢に基づき、前記対象物の実物の姿勢を検出することと、
前記指示位置を表す位置指標と前記指示姿勢を表す姿勢指標とを生成し前記画面上に表示することと、
前記対象物の実物の位置及び姿勢の情報を含む対象物情報を出力することと、
前記画面上で加えられる前記位置指標への修正又は削除の指示を検出し、前記指示に従って前記指示位置を修正又は削除すること、及び、前記画面上で加えられる前記姿勢指標への修正又は削除の指示を検出し、前記指示に従って前記指示姿勢を修正又は削除することのうちの少なくとも1つを含む第1の処理を実行することと、
前記第1の処理で修正又は削除された前記指示位置に基づき、前記対象物の実物の位置の情報を修正又は削除することと、
前記第1の処理で修正又は削除された前記指示位置に基づき、前記位置指標を修正又は削除することと、
前記第1の処理に基づき修正又は削除された前記対象物の実物の位置の情報を含む前記対象物情報を出力することと、
前記第1の処理で修正又は削除された前記指示姿勢に基づき、前記対象物の実物の姿勢の情報を修正又は削除することと、
前記第1の処理で修正又は削除された前記指示姿勢に基づき、前記姿勢指標を修正又は削除することと、
前記第1の処理に基づき修正又は削除された前記対象物の実物の姿勢の情報を含む前記対象物情報を出力することとを含む、
設定方法。 - 前記画面上で指示される前記対象物のサイズである指示サイズを検出することと、
前記指示サイズに基づき、前記対象物の実物のサイズを検出することと、
前記対象物の実物のサイズを表すサイズ指標をさらに生成し前記画面上に表示することと、
前記対象物の実物のサイズの情報をさらに含む前記対象物情報を出力することとをさらに含む、
請求項29に記載の設定方法。 - 対象物が映し出される画面上で指示される前記対象物の位置である指示位置を検出する位置検出部と、
前記画面上で指示される前記対象物の属性である指示属性を検出する属性検出部と、
前記指示位置に基づき、前記対象物の実物の位置を検出する位置情報検出部と、
前記指示属性に基づき、前記対象物の実物の属性を検出する属性情報検出部と、
前記指示位置を表す位置指標と前記対象物の実物の属性を表す属性指標とを生成し前記画面上に表示する指標処理部と、
前記対象物の実物の位置及び属性の情報を含む対象物情報を出力する出力部と、
前記対象物が映し出される画像を処理することで前記画像から前記対象物の実物の位置及び属性を検出する画像処理部と、
保存処理部とを含み、
前記指標処理部は、前記画像処理部によって検出された前記対象物の実物の位置及び属性に対応する前記位置指標及び前記属性指標を生成し表示し、
前記位置検出部及び前記属性検出部の少なくとも1つは、第2の処理を行い、
前記第2の処理では、前記位置検出部は、前記画面上で加えられる前記位置指標への修正の指示を検出し、前記指示に従って前記指示位置を修正し、
前記保存処理部は、前記第2の処理で修正された前記指示位置を前記画像と関連付けて保存し、
前記第2の処理では、前記属性検出部は、前記画面上で加えられる前記属性指標への修正の指示を検出し、前記指示に従って前記指示属性を修正し、
前記保存処理部は、前記第2の処理で修正された前記指示属性を前記画像と関連付けて保存する、
情報処理装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019154103 | 2019-08-26 | ||
JP2019154103 | 2019-08-26 | ||
PCT/JP2020/032207 WO2021039850A1 (ja) | 2019-08-26 | 2020-08-26 | 情報処理装置、設定装置、画像認識システム、ロボットシステム、設定方法、学習装置、及び学習済みモデルの生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021039850A1 JPWO2021039850A1 (ja) | 2021-03-04 |
JP7261306B2 true JP7261306B2 (ja) | 2023-04-19 |
Family
ID=74684794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021542968A Active JP7261306B2 (ja) | 2019-08-26 | 2020-08-26 | 情報処理装置、設定装置、画像認識システム、ロボットシステム、設定方法、学習装置、及び学習済みモデルの生成方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220292708A1 (ja) |
EP (1) | EP4023398A4 (ja) |
JP (1) | JP7261306B2 (ja) |
CN (1) | CN114286739B (ja) |
WO (1) | WO2021039850A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11922368B1 (en) * | 2020-12-11 | 2024-03-05 | Amazon Technologies, Inc. | Object classification exception handling via machine learning |
JPWO2023022237A1 (ja) * | 2021-08-19 | 2023-02-23 | ||
WO2023067656A1 (ja) * | 2021-10-18 | 2023-04-27 | 株式会社Pfu | 物体処理装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013173209A (ja) | 2012-02-27 | 2013-09-05 | Sony Corp | ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム |
JP2019046095A (ja) | 2017-08-31 | 2019-03-22 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008296330A (ja) * | 2007-05-31 | 2008-12-11 | Fanuc Ltd | ロボットシミュレーション装置 |
JP2009241247A (ja) | 2008-03-10 | 2009-10-22 | Kyokko Denki Kk | ステレオ画像型検出移動装置 |
EP2196881A1 (de) * | 2008-12-04 | 2010-06-16 | Siemens Aktiengesellschaft | Bedieneinrichtung zur Bedienung einer Maschine aus der Automatisierungstechnik |
US20120182296A1 (en) * | 2009-09-23 | 2012-07-19 | Han Dingnan | Method and interface for man-machine interaction |
US8094941B1 (en) * | 2011-06-13 | 2012-01-10 | Google Inc. | Character recognition for overlapping textual user input |
CN105518555B (zh) * | 2014-07-30 | 2017-11-03 | 深圳市大疆创新科技有限公司 | 目标追踪系统及方法 |
RU2610587C2 (ru) * | 2014-09-16 | 2017-02-13 | Общество С Ограниченной Ответственностью "Яндекс" | Способ пространственного хранения объекта посредством гибкой иерархической структуры и постоянный носитель информации |
KR20160044194A (ko) * | 2014-10-15 | 2016-04-25 | 주식회사 인프라웨어 | 터치 스크린을 구비하는 전자기기 상의 복수객체에서 객체를 선택하는 방법 및 장치 |
KR20170136750A (ko) * | 2016-06-02 | 2017-12-12 | 삼성전자주식회사 | 전자 장치 및 그의 동작 방법 |
EP3557521B1 (en) * | 2016-12-19 | 2024-09-25 | Kabushiki Kaisha Yaskawa Denki | Industrial device image recognition processor and controller |
JP6542824B2 (ja) * | 2017-03-13 | 2019-07-10 | ファナック株式会社 | 入力画像から検出した対象物の像の尤度を計算する画像処理装置および画像処理方法 |
JP6549655B2 (ja) * | 2017-08-03 | 2019-07-24 | ファナック株式会社 | 物品搬送装置 |
JP6687591B2 (ja) * | 2017-12-26 | 2020-04-22 | ファナック株式会社 | 物品搬送装置、ロボットシステムおよび物品搬送方法 |
JP7108861B2 (ja) * | 2018-01-31 | 2022-07-29 | パナソニックIpマネジメント株式会社 | 掃除機の制御方法 |
-
2020
- 2020-08-26 US US17/638,221 patent/US20220292708A1/en active Pending
- 2020-08-26 JP JP2021542968A patent/JP7261306B2/ja active Active
- 2020-08-26 WO PCT/JP2020/032207 patent/WO2021039850A1/ja unknown
- 2020-08-26 EP EP20856025.0A patent/EP4023398A4/en active Pending
- 2020-08-26 CN CN202080060150.5A patent/CN114286739B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013173209A (ja) | 2012-02-27 | 2013-09-05 | Sony Corp | ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム |
JP2019046095A (ja) | 2017-08-31 | 2019-03-22 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20220292708A1 (en) | 2022-09-15 |
WO2021039850A1 (ja) | 2021-03-04 |
CN114286739B (zh) | 2024-04-12 |
JPWO2021039850A1 (ja) | 2021-03-04 |
EP4023398A4 (en) | 2023-09-13 |
CN114286739A (zh) | 2022-04-05 |
EP4023398A1 (en) | 2022-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7261306B2 (ja) | 情報処理装置、設定装置、画像認識システム、ロボットシステム、設定方法、学習装置、及び学習済みモデルの生成方法 | |
CN112091970B (zh) | 具有增强的扫描机制的机器人系统 | |
Nerakae et al. | Using machine vision for flexible automatic assembly system | |
JP5897624B2 (ja) | ワークの取出工程をシミュレーションするロボットシミュレーション装置 | |
CN110580725A (zh) | 一种基于rgb-d相机的箱体分拣方法及系统 | |
JP5429614B2 (ja) | 箱状ワーク認識装置および方法 | |
CN108961144B (zh) | 图像处理系统 | |
US11654571B2 (en) | Three-dimensional data generation device and robot control system | |
JP2012101320A (ja) | 画像生成装置、画像生成方法、およびプログラム | |
US20160005161A1 (en) | Robot system | |
JP2019192022A (ja) | 画像処理装置、画像処理方法及びプログラム | |
WO2019059343A1 (ja) | ワーク情報処理装置およびワークの認識方法 | |
US20230044420A1 (en) | Systems and methods for object detection | |
JP2016170050A (ja) | 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム | |
WO2023092519A1 (zh) | 抓取控制方法、装置、电子设备和存储介质 | |
US11478922B2 (en) | Robot teaching device and robot system | |
Pan et al. | Manipulator package sorting and placing system based on computer vision | |
Sharma et al. | Deep convolutional neural network design approach for 3D object detection for robotic grasping | |
Natarajan et al. | Robust stereo-vision based 3D modelling of real-world objects for assistive robotic applications | |
CN114187312A (zh) | 目标物的抓取方法、装置、系统、存储介质及设备 | |
Fan et al. | An automatic robot unstacking system based on binocular stereo vision | |
KR102452315B1 (ko) | 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어장치 및 그 방법 | |
JP7481205B2 (ja) | ロボットシステム、ロボットの制御方法、情報処理装置、コンピュータプログラム、学習装置、及び学習済みモデルの生成方法 | |
CN116175542A (zh) | 抓取控制方法、装置、电子设备和存储介质 | |
CN116188559A (zh) | 图像数据处理方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230407 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7261306 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |