JP7261306B2 - 情報処理装置、設定装置、画像認識システム、ロボットシステム、設定方法、学習装置、及び学習済みモデルの生成方法 - Google Patents

情報処理装置、設定装置、画像認識システム、ロボットシステム、設定方法、学習装置、及び学習済みモデルの生成方法 Download PDF

Info

Publication number
JP7261306B2
JP7261306B2 JP2021542968A JP2021542968A JP7261306B2 JP 7261306 B2 JP7261306 B2 JP 7261306B2 JP 2021542968 A JP2021542968 A JP 2021542968A JP 2021542968 A JP2021542968 A JP 2021542968A JP 7261306 B2 JP7261306 B2 JP 7261306B2
Authority
JP
Japan
Prior art keywords
size
index
image
indicated
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021542968A
Other languages
English (en)
Other versions
JPWO2021039850A1 (ja
Inventor
誠太 大野
吉平 松田
裕規 ▲高▼山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Motors Ltd
Original Assignee
Kawasaki Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Jukogyo KK filed Critical Kawasaki Jukogyo KK
Publication of JPWO2021039850A1 publication Critical patent/JPWO2021039850A1/ja
Application granted granted Critical
Publication of JP7261306B2 publication Critical patent/JP7261306B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41815Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell
    • G05B19/4182Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell manipulators and conveyor only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4155Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40554Object recognition to track object on conveyor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/50Machine tool, machine tool null till machine tool work handling
    • G05B2219/50391Robot
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Manufacturing & Machinery (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Robotics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Manipulator (AREA)

Description

関連出願への相互参照
本件出願は、2019年8月26日に日本特許庁に出願された特願2019-154103号の優先権を主張するものであり、その全体を参照することにより本件出願の一部となすものとして引用する。
本開示は、情報処理装置、設定装置、画像認識システム、ロボットシステム、設定方法、学習装置、及び学習済みモデルの生成方法に関する。
従来、ワークを撮像した画像を用いて動作を制御するロボットがある。例えば、特許文献1は、カメラによってワークを撮像した画像を用いて、ワークの3次元位置及び姿勢を計測し、計測された情報を用いて、ロボットアーム先端部及びロボットハンドを制御する装置を開示している。
特開2009-241247号公報
例えば、複数のワークがランダムに配置されるような作業環境では、2つのワークが重なっている場合がある。このような場合、特許文献1の装置は、重なっているワークを1つのワークとして検出する、又は、ワークとして検出しない可能性がある。このため、検出結果におけるワークの修正又は追加が必要である。
そこで、本開示は、画像に含まれるワーク等の対象物を認識するための設定を可能にする情報処理装置、設定装置、画像認識システム、ロボットシステム、設定方法、学習装置、及び学習済みモデルの生成方法を提供することを目的とする。
上記目的を達成するために、本開示の一態様に係る情報処理装置は、対象物が映し出される画面上で指示される前記対象物の位置である指示位置を検出する位置検出部と、前記画面上で指示される前記対象物の属性である指示属性を検出する属性検出部と、前記指示位置に基づき、前記対象物の実物の位置を検出する位置情報検出部と、前記指示属性に基づき、前記対象物の実物の属性を検出する属性情報検出部と、前記指示位置を表す位置指標と前記対象物の実物の属性を表す属性指標とを生成し前記画面上に表示する指標処理部と、前記対象物の実物の位置及び属性の情報を含む対象物情報を出力する出力部とを含む。
本開示の別の一態様に係る情報処理装置は、対象物が映し出される画面上で指示される前記対象物の位置である指示位置を検出する位置検出部と、前記画面上で指示される前記対象物のサイズである指示サイズを検出するサイズ検出部と、前記指示位置に基づき、前記対象物の実物の位置を検出する位置情報検出部と、前記指示サイズに基づき、前記対象物の実物のサイズを検出するサイズ情報検出部と、前記指示位置を表す位置指標と前記対象物の実物のサイズを表すサイズ指標とを生成し前記画面上に表示する指標処理部と、前記対象物の実物の位置及びサイズの情報を含む対象物情報を出力する出力部とを含む。
本開示の別の一態様に係る情報処理装置は、対象物が映し出される画面上で指示される前記対象物の位置である指示位置を検出する位置検出部と、前記画面上で指示される前記対象物の姿勢である指示姿勢を検出する姿勢検出部と、前記指示位置に基づき、前記対象物の実物の位置を検出する位置情報検出部と、前記指示姿勢に基づき、前記対象物の実物の姿勢を検出する姿勢情報検出部と、前記指示位置を表す位置指標と前記指示姿勢を表す姿勢指標とを生成し前記画面上に表示する指標処理部と、前記対象物の実物の位置及び姿勢の情報を含む対象物情報を出力する出力部とを含む。
本開示の一態様に係る学習用画像並びに前記学習用画像に含まれる対象物の位置及び属性を取得する取得部と、前記学習用画像を入力データとし、前記対象物の位置及び属性を教師データとして、画像から対象物の位置及び属性を推定するための学習済みモデルを機械学習により生成する学習部と、を備える学習装置。
本開示の一態様に係る学習済みモデルの生成方法は、学習用画像並びに前記学習用画像に含まれる対象物の位置及び属性を取得し、前記学習用画像を入力データとし、前記対象物の位置及び属性を教師データとして、画像から対象物の位置及び属性を推定するための学習済みモデルを機械学習により生成する。
本開示の一態様に係る設定装置は、本開示の一態様に係る情報処理装置と、前記画面を表示するディスプレイと、前記指示の入力を受け付け前記情報処理装置に出力する入力装置とを備える。
本開示の一態様に係る画像認識システムは、本開示の一態様に係る設定装置と、前記対象物の実物を撮像し、撮像された画像を前記設定装置に出力する撮像装置とを備える。
本開示の一態様に係るロボットシステムは、本開示の一態様に係る画像認識システムと、前記対象物の実物に対する処理作業を行うロボットと、前記ロボットを制御する制御装置とを備え、前記制御装置は、前記情報処理装置の前記出力部から出力される前記対象物情報を用いて、前記対象物の実物を認識し、前記ロボットに前記対象物の実物を処理させる。
本開示の一態様に係る設定方法は、画面上に映し出される対象物の実物を認識するための前記対象物の位置及びサイズの設定方法であって、前記画面上で指示される前記対象物の位置である指示位置を検出し、前記画面上で指示される前記対象物のサイズである指示サイズを検出し、前記指示位置に基づき、前記対象物の実物の位置を検出し、前記指示サイズに基づき、前記対象物の実物のサイズを検出し、前記指示位置を表す位置指標と前記対象物の実物のサイズを表すサイズ指標とを生成し前記画面上に表示し、前記対象物の実物の位置及びサイズの情報を含む対象物情報を出力する。
本開示の別の一態様に係る設定方法は、画面上に映し出される対象物の実物を認識するための前記対象物の位置及び姿勢の設定方法であって、前記画面上で指示される前記対象物の位置である指示位置を検出し、前記画面上で指示される前記対象物の姿勢である指示姿勢を検出し、前記指示位置に基づき、前記対象物の実物の位置を検出し、前記指示姿勢に基づき、前記対象物の実物の姿勢を検出し、前記指示位置を表す位置指標と前記指示姿勢を表す姿勢指標とを生成し前記画面上に表示し、前記対象物の実物の位置及び姿勢の情報を含む対象物情報を出力する。
本開示の技術によれば、画像に含まれる対象物を認識するための設定が可能となる。
図1は、実施の形態に係るロボットシステムの構成の一例を示す平面図である。 図2は、実施の形態に係るロボットシステムの構成の一例を示すブロック図である。 図3は、実施の形態に係るロボットの構成の一例を示す側面図である。 図4は、実施の形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。 図5は、実施の形態に係るロボット制御装置のハードウェア構成の一例を示すブロック図である。 図6は、実施の形態に係る情報処理装置の機能的構成の一例を示すブロック図である。 図7は、実施の形態に係る情報処理装置によって画像処理された画像の一例を示す図である。 図8は、実施の形態に係る情報処理装置によって生成される瓶指標の第1重畳画像の画面の一例を示す図である。 図9は、実施の形態に係る情報処理装置によって生成される瓶指標の第2重畳画像の画面の一例を示す図である。 図10は、実施の形態に係る情報処理装置によって修正される瓶指標を表示する第1重畳画像の画面の一例を示す図である。 図11は、実施の形態に係る情報処理装置による修正後の瓶指標を表示する第1重畳画像の画面の一例を示す図である。 図12は、実施の形態に係る情報処理装置によって削除される瓶指標を表示する第1重畳画像の画面の一例を示す図である。 図13は、実施の形態に係る情報処理装置による瓶指標の削除後の第1重畳画像の画面の一例を示す図である。 図14は、実施の形態に係る情報処理装置によって瓶指標が追加される状態を表示する第1重畳画像の画面の一例を示す図である。 図15は、実施の形態に係る情報処理装置によって瓶指標が追加される状態を表示する第1重畳画像の画面の一例を示す図である。 図16は、実施の形態に係る情報処理装置による瓶指標の追加後の第1重畳画像の画面の一例を示す図である。 図17は、実施の形態に係る情報処理装置の機能を設定する画面の一例を示す図である。 図18は、実施の形態に係るロボットシステムの動作の一例を示すフローチャートである。 図19は、変形例に係る学習装置の機能的構成例を示すブロック図である。 図20は、学習用データベースの内容例を示す図である。 図21は、学習済みモデルの生成処理の手順例を示す図である。 図22は、学習済みモデルの生成処理を説明するための図である。 図23は、学習済みモデルを用いた識別処理の手順例を示す図である。 図24は、学習済みモデルを用いた識別処理を説明するための図である。 図25は、修正保存データベースの内容例を示す図である。
以下において、本開示の実施の形態を、図面を参照しつつ説明する。なお、以下で説明する実施の形態は、いずれも包括的又は具体的な例を示すものである。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また、添付の図面における各図は、模式的な図であり、必ずしも厳密に図示されたものでない。さらに、各図において、実質的に同一の構成要素に対しては同一の符号を付しており、重複する説明は省略又は簡略化される場合がある。また、本明細書及び請求の範囲では、「装置」とは、1つの装置を意味し得るだけでなく、複数の装置からなるシステムも意味し得る。
<ロボットシステムの構成>
実施の形態に係るロボットシステム1の構成を説明する。図1は、実施の形態に係るロボットシステム1の構成の一例を示す平面図である。図2は、実施の形態に係るロボットシステム1の構成の一例を示すブロック図である。
図1に示すように、本実施の形態では、ロボットシステム1は、ベルトコンベヤ200上にランダムに載せられた複数の対象物Wをロボット100が分別するシステムであるとして説明する。対象物Wは特に限定されないが、本実施の形態では廃棄物であり、具体的には空き瓶(以下、「瓶W」とも表記する)である。なお、ロボットシステム1は、対象物Wを分別するシステムに限定されず、例えば、対象物Wに対してピッキング、配置又は加工等の作業を行うシステムであってもよい。つまり、ロボットシステム1は、対象物Wが存在する位置又は配置される位置の特定を伴う作業を行うシステムであってもよい。
本実施の形態に係るロボットシステム1は、少なくとも1つのロボット100と、ベルトコンベヤ200と、情報処理装置300と、入出力装置400と、撮像装置500と、ロボット制御装置600とを備える。図2に示すように、情報処理装置300及び入出力装置400は、設定装置10を構成する。情報処理装置300、入出力装置400及び撮像装置500は、画像認識システム20を構成する。
図1に示すように、ベルトコンベヤ200は、その搬送面221を方向Dに移動し、搬送面221上の瓶Wを方向Dに搬送する。ベルトコンベヤ200は、方向Dに並ぶ複数のローラ210と、複数のローラ210に掛け渡された無端輪状の搬送ベルト220と、ローラ210を回転駆動する電気モータであるコンベヤモータ230とを備える。搬送面221は、搬送ベルト220の上方に向いた外周面である。
2つのロボット100A及び100Bが、ベルトコンベヤ200に対して方向Dでの下流側の両側に配置されている。ロボット100A及び100Bは産業用ロボットである。以下において、2つのロボットを区別する場合は「ロボット100A」及び「ロボット100B」と表記し、区別しない場合は「ロボット100」と表記する場合がある。
ロボット100Aは、ロボット制御装置600の制御に従って、ベルトコンベヤ200上の瓶Wの中の透明な瓶(以下「透明瓶」とも表記する)を、サイズに応じた2つの区分の透明瓶WTL及びWTSに選別して取り出し、つまり分別し、回収箱701L及び701Sに投入する。透明瓶WTLは、より大きいサイズ区分(以下、「大サイズ区分」とも表記する)の瓶であり回収箱701Lに投入され、透明瓶WTSは、より小さいサイズ区分(以下、「小サイズ区分」とも表記する)の瓶であり回収箱701Sに投入される。
ロボット100Bは、ロボット制御装置600の制御に従って、ベルトコンベヤ200上の瓶Wの中の茶色等の色付きの瓶(以下、「色付き瓶」とも表記する)を、大サイズ区分及び小サイズ区分の色付き瓶WCL及びWCSに選別して取り出し、つまり分別し、回収箱702L及び702Sに投入する。色付き瓶WCLは回収箱702Lに投入され、色付き瓶WCSは回収箱702Sに投入される。
図3は、実施の形態に係るロボット100の構成の一例を示す側面図である。図1及び図3に示すように、ロボット100A及び100B、つまりロボット100は、基台110と、基台110に配置された2つのアーム120及び130とを備える双腕ロボットである。具体的には、ロボット100は、アーム120及び130が鉛直方向の第1軸S1を中心とする同軸上で水平面内で回動可能である同軸双腕ロボットである。アーム120及び130は、水平多関節型のロボットアームを構成する。ロボット100は、アーム120及び130それぞれの先端に、瓶Wを保持するためのエンドエフェクタ150及び160を備える。エンドエフェクタ150及び160は、瓶Wを保持し搬送することができればよく、本実施の形態では瓶Wを負圧により吸着する。エンドエフェクタ150及び160が対象物を保持する構成は、吸着を用いる構成に限定されず、把持、掬い上げ、吊り上げ、係合、粘着力及び磁力等を用いる構成であってもよい。
アーム120は、リンク121~124と、アーム駆動装置MA1~MA4(図2参照)とを含む。アーム130は、リンク131~134と、アーム駆動装置MB1~MB4(図2参照)とを含む。アーム駆動装置MA1~MA4及びMB1~MB4は、電気モータ等を含み、本実施の形態ではサーボモータを含む。アーム駆動装置MA1~MA4及びMB1~MB4の駆動は、ロボット制御装置600によって制御される。
第1リンク121及び131はそれぞれ、第1軸S1を中心に水平面内で互いに独立して回動可能に、回転関節JTA1及びJTB1を介して基台110と接続される。第1リンク121及び131は、回動時の互いの干渉を抑えるように、第1軸S1の方向にずらして配置される。第2リンク122及び132はそれぞれ、鉛直方向の第2軸S2a及びS2bを中心に水平面内で回動可能に、回転関節JTA2及びJTB2を介して第1リンク121及び131の先端と接続される。第3リンク123及び133はそれぞれ、鉛直方向の第3軸S3a及びS3bに沿って昇降可能に、直動関節JTA3及びJTB3を介して第2リンク122及び132の先端と接続される。第4リンク124及び134はそれぞれ、第3リンク123及び133の長手方向の第4軸S4a及びS4bを中心に回動可能に、回転関節JTA4及びJTB4を介して第3リンク123及び133の下端と接続される。第4軸S4a及びS4bは、鉛直方向の軸でもある。第4リンク124及び134はそれぞれ、エンドエフェクタ150及び160と接続するためのメカニカルインタフェースを構成する。
アーム駆動装置MA1~MA4はそれぞれ、関節JTA1~JTA4を駆動し、リンク121~124を回動又は昇降させる。アーム駆動装置MB1~MB4はそれぞれ、関節JTB1~JTB4を駆動し、リンク131~134を回動又は昇降させる。
エンドエフェクタ150及び160は、支持体171と、支持体171上に矩形状に配列された複数の吸着ノズル170を備える。エンドエフェクタ150及び160は、同様の構成を有してもよく、例えば、吸着ノズル170の数量及び配置等で異なる構成を有してもよい。複数の吸着ノズル170は、中空筒状の形状を有し、配管を介して負圧発生装置180(図2参照)と接続される。複数の吸着ノズル170は、負圧発生装置180が発生する負圧によって、その先端で対象物を吸着する。負圧発生装置180の構成は、吸着ノズル170に負圧を発生させることができれば特に限定されず、既存のいかなる構成が用いられてもよい。例えば、負圧発生装置180は、空気を吸引することで負圧又は真空を発生する真空ポンプ又は空気圧シリンダの構成を有してもよく、圧縮空気を送入することで負圧又は真空を発生するエジェクタの構成を有してもよい。負圧発生装置180の動作は、ロボット制御装置600によって制御される。
ロボット100A及び100Bはそれぞれ、アーム120及びエンドエフェクタ150を用いて、大サイズ区分の瓶WTL又はWCLを搬送し、アーム130及びエンドエフェクタ160を用いて、小サイズ区分の瓶WTS又はWCSを搬送する。
図1及び図2に示すように、情報処理装置300は、入出力装置400A及び400Bと、撮像装置500と、ロボット制御装置600と、有線通信又は無線通信を介して接続される。以下において、2つの入出力装置を区別する場合は「入出力装置400A」及び「入出力装置400B」と表記し、区別しない場合は「入出力装置400」と表記する場合がある。ロボット制御装置600は、ロボット100A及び100Bのアーム駆動装置MA1~MA4及びMB1~MB4と、負圧発生装置180と、ベルトコンベヤ200のコンベヤモータ230と、情報処理装置300と、有線通信又は無線通信を介して接続される。有線通信及び無線通信の種類は特に限定されない。例えば、有線通信及び無線通信は、有線又は無線LAN(Local Area Network)を含んでもよい。
ロボット制御装置600は、アーム駆動装置MA1~MA4及びMB1~MB4、負圧発生装置180並びにコンベヤモータ230の動作を制御する。例えば、ロボット制御装置600は、情報処理装置300からベルトコンベヤ200上の各瓶Wの情報を受け取る。瓶Wの情報は、瓶Wについて、色付き又は透明であるかの色区分、位置、サイズ及び姿勢等を含む。ロボット制御装置600は、各瓶Wの情報に基づき当該瓶を認識し、ロボット100A及び100Bのアーム120及び130並びにエンドエフェクタ150及び160の吸着ノズル170を動作させ、各瓶Wを分別させる。瓶の認識は、当該瓶の存在、色、位置、姿勢及びサイズ等を特定することである。ロボット制御装置600は、ロボット100A及び100B、負圧発生装置180及びベルトコンベヤ200等を互いに連携、協調及び/又は協働して動作させることができる。
撮像装置500は、ロボット100A及び100Bに対する方向Dでの上流側において、ベルトコンベヤ200の上方に配置され、下方の搬送面221を撮像する。撮像装置500は、撮像した画像を情報処理装置300に出力する。撮像装置500は、情報処理装置300の制御に従って撮像するが、ロボット制御装置600の制御に従って撮像してもよい。撮像装置500は、デジタル画像を撮像するカメラであり、画像内の被写体までの距離等の3次元位置の検出を可能にするカメラである。このようなカメラの例は、ステレオカメラ、単眼カメラ、TOFカメラ(トフカメラ:Time-of-Flight-Camera)、縞投影等のパターン光投影カメラ、又は光切断法を用いたカメラである。本実施の形態では、撮像装置500はステレオカメラである。なお、本実施の形態では、撮像装置500の位置及び撮像方向と搬送面221の撮像対象部位との位置関係は固定され且つ既知であるため、撮像装置500が単なるカメラであっても、画像内の被写体の3次元位置の検出が可能である。
入出力装置400A及び400Bはそれぞれ、ディスプレイと入力装置とを備え、本実施の形態では、ディスプレイの機能と入力装置の機能とを含むタッチスクリーン410を備える。ディスプレイの例は、液晶ディスプレイ(Liquid Crystal Display)及び有機又は無機ELディスプレイ(Electro-Luminescence Display)であるが、これらに限定されない。例えば、入出力装置400A及び400Bは、タッチスクリーン410を備えるディスプレイ装置、並びに、スマーフォン及びタブレットなどのスマートデバイス等であってもよい。入出力装置400A及び400Bはロボット100A及び100Bに対応して配置されている。入出力装置400A及び400Bは、タッチスクリーン410の画面上に、撮像装置500によって撮像された画像と、情報処理装置300によって生成される瓶指標とを重畳表示することができる。瓶指標は、対象物である瓶Wの情報を表す指標であり、対象物指標である。入出力装置400A及び400Bは、タッチスクリーン410へのユーザの指又はペン等の接触位置(「タップ位置」とも表記する)及び接触軌跡等を入力情報として取得し、情報処理装置300に出力する。
情報処理装置300は、種々の情報を処理し出力する装置である。例えば、情報処理装置300は、撮像装置500によって撮像された画像を画像処理し入出力装置400A及び400Bに出力し表示させる。情報処理装置300は、ユーザである操作者Pが入出力装置400A及び400Bの画面を視て処理を行うことができるように、所定の時間間隔の撮像時刻の画像の処理画像を入出力装置400A及び400Bに出力する。
具体的には、情報処理装置300は、撮像装置500によって撮像された画像を画像処理することで、当該画像に映し出される瓶Wの像である瓶像WIを抽出し、さらに実物の瓶Wの位置、サイズ、姿勢及び色区分等を含む瓶Wの情報を検出する。上記瓶Wの情報は、対象物情報の一例である。
実物の瓶Wの位置の情報は、当該瓶Wの位置を特定できる情報であればよい。瓶Wの位置は、瓶Wのいかなる部位の位置であってもよく、3次元位置及び2次元位置のいずれで表されてもよい。例えば、瓶Wの3次元位置は、ロボットシステム1が存在する空間等に設定された3次元座標で表されてもよい。瓶Wの2次元位置は、ベルトコンベヤ200の搬送面221等を基準にした2次元座標で表されてもよい。本実施の形態では、実物の瓶Wの位置は、重心等の瓶Wの特定の点の3次元位置である。
実物の瓶Wの姿勢の情報は、当該瓶Wの姿勢を特定できる情報であればよい。瓶Wの姿勢は、瓶Wのいかなる部位を基準とした姿勢であってもよく、3次元の姿勢及び2次元の姿勢のいずれで表されてもよい。例えば、瓶Wの3次元の姿勢は、瓶Wの3次元位置と同様の3次元座標で表されてもよく、瓶Wの2次元の姿勢は、瓶Wの2次元位置と同様の2次元座標で表されてもよい。本実施の形態では、瓶Wの姿勢は、瓶Wの向きであり、具体的には、瓶Wの底及び入口を結ぶ長手方向の向きである。
実物の瓶Wのサイズの情報は、当該瓶Wの大きさの程度を特定できる情報であればよい。瓶Wのサイズは、瓶Wのいかなる部位のサイズであってもよく、3次元でのサイズ及び2次元でのサイズのいずれで表されてもよい。サイズは、例えば、寸法値、寸法値の変換値、寸法範囲、寸法範囲の変換値、及び、階級等であってもよい。階級は、寸法範囲毎に区分けされた階級であり、サイズ区分は階級の一例である。例えば、瓶Wの3次元でのサイズは、瓶Wの3次元位置と同様の3次元座標系でのサイズであってもよく、瓶Wの2次元のサイズは、瓶Wの2次元位置と同様の2次元座標系でのサイズであってもよい。本実施の形態では、瓶Wのサイズは、サイズ区分であり、具体的には、瓶Wの底及び入口を結ぶ長手方向での長さについてサイズ区分である。
情報処理装置300は、瓶Wの情報をロボット制御装置600に出力する。さらに、情報処理装置300は、実物の瓶Wの位置、サイズ及び姿勢をタッチスクリーン410上で表すための瓶指標を生成し、当該瓶指標の画像データを入出力装置400A及び400Bに出力する。情報処理装置300は、透明瓶WTL及びWTSの瓶指標の画像データを入出力装置400Aに出力し、色付き瓶WCL及びWCSの瓶指標の画像データを入出力装置400Bに出力する。
また、情報処理装置300は、タッチスクリーン410に入力された情報を入出力装置400A及び400Bから受け取り、当該情報を処理する。例えば、入出力装置400A及び400Bは、操作者Pの操作により新たな瓶指標を生成しタッチスクリーン410に表示させるための入力を受け付けることができる。さらに、入出力装置400A及び400Bは、タッチスクリーン410上に表示されている瓶Wの瓶指標に対して操作者Pの操作により修正又は削除するための入力を受け付けることができる。
情報処理装置300は、入出力装置400A又は400Bから新規瓶指標を生成するための入力情報を受け取ると、当該入力情報に従って新規瓶指標の画像データを生成し入出力装置400A又は400Bに出力する。さらに、情報処理装置300は、新規瓶指標に対応する実物の瓶Wの位置、サイズ、姿勢及び色区分等を含む瓶Wの情報を検出しロボット制御装置600に出力する。
情報処理装置300は、入出力装置400A又は400Bから瓶指標を修正又は削除するための入力情報を受け取ると、当該入力情報に従って修正又は削除された瓶指標の画像データを生成し入出力装置400A又は400Bに出力する。さらに、情報処理装置300は、修正又は削除された瓶指標に対応する実物の瓶Wの情報を検出しロボット制御装置600に出力する。
本実施の形態では、情報処理装置300は、入出力装置400及びロボット制御装置600とは別個のコンピュータ装置である。例えば、情報処理装置300は、電子制御ユニット(ECU:Electronic Control Unit)及びパーソナルコンピュータ等であってもよい。しかしながら、情報処理装置300は、入出力装置400又はロボット制御装置600に組み込まれ一体化されていてもよい。
[情報処理装置のハードウェア構成]
図4は、実施の形態に係る情報処理装置300のハードウェア構成の一例を示すブロック図である。図4に示すように、情報処理装置300は、CPU(Central Processing Unit)301と、ROM(Read Only Memory)302と、RAM(Random Access Memory)303と、メモリ304と、撮像素子I/F(インタフェース:Interface)305と、画像プロセッサ306と、入出力I/F307~309とを構成要素として含む。上記構成要素はそれぞれ、バス、有線通信又は無線通信を介して接続されている。なお、上記構成要素の全てが必須ではない。
例えば、CPU301はプロセッサであり、情報処理装置300の動作の全体を制御する。ROM302は不揮発性半導体メモリ等で構成され、CPU301に動作を制御させるためのプログラム及びデータ等を格納する。RAM303は揮発性半導体メモリ等で構成され、CPU301で実行するプログラム及び処理途中又は処理済みのデータ等を一時的に格納する。メモリ304は、揮発性メモリ及び不揮発性メモリなどの半導体メモリ、ハードディスク(HDD:Hard Disc Drive)及びSSD(Solid State Drive)等の記憶装置で構成される。
例えば、CPU301が動作するためのプログラムは、ROM302又はメモリ304に予め保持されている。CPU301は、ROM302又はメモリ304からプログラムをRAM303に読み出して展開する。CPU301は、RAM303に展開されたプログラム中のコード化された各命令を実行する。
情報処理装置300の各機能は、CPU301、ROM302及びRAM303等からなるコンピュータシステムにより実現されてもよく、電子回路又は集積回路等の専用のハードウェア回路により実現されてもよく、上記コンピュータシステム及びハードウェア回路の組み合わせにより実現されてもよい。
このような情報処理装置300は、例えば、マイクロコントローラ、MPU(Micro Processing Unit)、LSI(Large Scale Integration:大規模集積回路)、システムLSI、PLC(Programmable Logic Controller)、論理回路等で構成されてもよい。情報処理装置300の複数の機能は、個別に1チップ化されることで実現されてもよく、一部又は全てを含むように1チップ化されることで実現されてもよい。また、回路はそれぞれ、汎用的な回路でもよく、専用の回路でもよい。LSIとして、LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、LSI内部の回路セルの接続及び/又は設定を再構成可能なリコンフィギュラブルプロセッサ、又は、特定用途向けに複数の機能の回路が1つにまとめられたASIC(Application Specific Integrated Circuit)等が利用されてもよい。
撮像素子I/F305は、CPU301の指令に従って、撮像装置500の撮像素子(図示せず)の駆動を制御する。撮像素子I/F305は、撮像装置500によって撮像された画像のデータをRAM303又はメモリ304に取り込む。撮像素子I/F305は、撮像素子の駆動のための回路等を含んでもよい。
画像プロセッサ306は、入出力装置400A及び400Bに表示する画面を生成可能なGPU(Graphics Processing Unit)を備える。画像プロセッサ306は、CPU301の指令に従って画面データを生成し、入出力装置400A及び400Bに出力する。例えば、画像プロセッサ306は、撮像装置500によって撮像された画像データを処理して生成された画像データ、並びに、入出力装置400A及び400Bに入力された情報に対応して生成された情報等を示す画面データを生成する。
第1入出力I/F307は、画像プロセッサ306及び入出力装置400Aと接続され、入出力装置400Aに対して画面データ、情報及び指令等を入出力する。第2入出力I/F308は、画像プロセッサ306及び入出力装置400Bと接続され、入出力装置400Bに対して画面データ、情報及び指令等を入出する。第3入出力I/F309は、ロボット制御装置600と接続され、ロボット制御装置600に対して情報及び指令等を入出力する。入出力I/F307~309は、信号を変換する回路等を含んでもよい。
[ロボット制御装置のハードウェア構成]
図5は、実施の形態に係るロボット制御装置600のハードウェア構成の一例を示すブロック図である。図5に示すように、ロボット制御装置600は、CPU601と、ROM602と、RAM603と、メモリ604と、入出力I/F605と、アーム駆動回路606と、コンベヤ駆動回路607と、負圧駆動回路608と、開閉駆動回路609とを構成要素として含む。上記構成要素はそれぞれ、バス、有線通信又は無線通信を介して接続されている。なお、上記構成要素の全てが必須ではない。本実施の形態では、ロボット100A及び100Bに対して1つのロボット制御装置600が設けられるが、ロボット100A及び100Bに個別にロボット制御装置600が設けられてもよい。
CPU601、ROM602、RAM603及びメモリ604それぞれの構成及び機能は、情報処理装置300のCPU301、ROM302、RAM303及びメモリ304と同様である。CPU601はロボット制御装置600の処理及び動作の全体を制御する。ロボット制御装置600の各機能は、CPU601、ROM602及びRAM603等からなるコンピュータシステムにより実現されてもよく、電子回路又は集積回路等の専用のハードウェア回路により実現されてもよく、上記コンピュータシステム及びハードウェア回路の組み合わせにより実現されてもよい。
入出力I/F605は、情報処理装置300と接続され、情報処理装置300に対して情報及び指令等を入出力する。入出力I/F605は、信号を変換する回路等を含んでもよい。アーム駆動回路606は、CPU601の指令に従って、ロボット100A及び100Bのアーム駆動装置MA1~MA4及びMB1~MB4のサーボモータに電力を供給し各サーボモータの駆動を制御する。コンベヤ駆動回路607は、CPU601の指令に従って、ベルトコンベヤ200のコンベヤモータ230に電力を供給しコンベヤモータ230の駆動を制御する。負圧駆動回路608は、CPU601の指令に従って、負圧発生装置180に電力を供給し負圧発生装置180の駆動を制御する。
開閉駆動回路609は、CPU601の指令に従って、開閉装置181~184の駆動を制御する。開閉装置181及び182はそれぞれ、配管系統181a及び182aを導通又は遮断する。配管系統181a及び182aはそれぞれ、ロボット100Aのエンドエフェクタ150及び160それぞれの吸着ノズル170と負圧発生装置180とを接続する。開閉装置183及び184はそれぞれ、配管系統183a及び184aを導通又は遮断する。配管系統183a及び184aはそれぞれ、ロボット100Bのエンドエフェクタ150及び160それぞれの吸着ノズル170と負圧発生装置180とを接続する。開閉装置181~184の例は電磁弁等で構成される開閉弁である。
[情報処理装置の機能的構成]
図6は、実施の形態に係る情報処理装置300の機能的構成の一例を示すブロック図である。図6に示すように、情報処理装置300は、撮像制御部3001と、画像処理部3002と、指標処理部3003及び3004と、画像合成部3005及び3006と、入力解析部3007及び3008と、変換部3009及び3010と、機能設定部3011と、記憶部3012とを機能的構成要素として含む。上記機能的構成要素の全てが必須ではない。
記憶部3012を除く機能的構成要素の機能は、CPU301等によって実現され、記憶部3012の機能は、メモリ304、ROM302及び/RAM303によって実現される。
記憶部3012は、種々の情報を記憶し、記憶している情報の読み出しを可能にする。記憶部3012は、撮像装置500のカメラパラメタ、ロボット100によって処理され得る対象の瓶の情報、瓶の色区分の色閾値、及び瓶のサイズ区分のサイズ閾値等を記憶する。瓶の情報は、処理され得る瓶の色、表面テクスチャ、輪郭形状及び当該輪郭形状の長手方向等の情報を含んでもよい。記憶部3012は、撮像装置500によって撮像された画像、当該画像の処理画像及び/又はプログラム等を記憶してもよい。
カメラパラメタは、外部パラメータと内部パラメータとを含む。外部パラメータの例は、撮像装置500の位置(3次元位置)及び向き(光軸中心の向き)等を示すパラメータである。内部パラメータの例は、撮像装置500のレンズの歪み、焦点距離、撮像素子の1画素のサイズ及び光軸中心の画素座標等を示すパラメータである。画素座標は、画素を単位とする座標であり、画像上での2次元座標である。
瓶の輪郭形状は、様々な方向から瓶を投影したときの投影面上での輪郭形状である。瓶の輪郭形状の長手方向は、当該瓶の口及び底を通る長手軸方向に対応し、当該瓶の向きを示す。瓶の輪郭形状及びその長手方向は、テンプレートとして記憶される。
色閾値は、画素の輝度値での閾値であってもよい。例えば、瓶を表す画素の輝度値が色閾値以上であるか色閾値未満であるかに応じて、瓶が透明であるか色付きであるかが区分けされてもよい。なお、色区分は、2つに限定されず、3つ以上であってもよい。
サイズ閾値は、瓶の実サイズの判定のための実サイズ閾値と、画像上での瓶のサイズの判定のための画像サイズ閾値とを含む。サイズ閾値は、瓶の長手方向の長さでの閾値であってもよい。例えば、瓶の長手方向の長さがサイズ閾値以上であるかサイズ閾値未満であるかに応じて、瓶が大サイズ区分であるか小サイズ区分であるかが区分けされてもよい。なお、サイズ区分は、2つに限定されず、3つ以上であってもよい。
撮像制御部3001は、撮像装置500の動作を制御する。例えば、撮像制御部3001は、所定の時間間隔で、撮像装置500にベルトコンベヤ200の搬送面221を撮像させる。撮像制御部3001は、ステレオカメラである撮像装置500によって同時刻に撮像された2つの画像を対応付けて記憶部3012等に出力する。
画像処理部3002は、第1~第3画像処理部の一例である。画像処理部3002は、撮像装置500によって同時刻に撮像された2つの画像を用いて、2つの画像それぞれに映し出される瓶像を特定し、当該瓶像の瓶の3次元の位置、サイズ及び姿勢を検出する。
例えば、画像処理部3002は、2つの画像それぞれにおいてエッジを抽出し、抽出されたエッジと記憶部3012内の瓶の輪郭形状のテンプレートとをパターンマッチング手法等により比較することで、瓶のエッジを検出する。さらに、画像処理部3002は、2つの画像の少なくとも一方において、瓶のエッジによって囲まれる瓶像が表す色を検出し、記憶部3012内の色区分に基づき、当該瓶像を透明瓶像と色付き瓶像とに分類する。
さらに、画像処理部3002は、2つの画像それぞれにおいて、各瓶像の2次元の重心位置、長手方向及び当該長手方向での長さを、2次元の重心位置、姿勢及びサイズとして検出する。例えば、瓶像の長手方向は、瓶像の底から入口に向かう方向であってもよい。なお、画像処理部3002は、瓶像に対応するテンプレートが示す輪郭形状の長手方向を、当該瓶像の長手方向としてもよい。
さらに、画像処理部3002は、記憶部3012内のカメラパラメタを用いたステレオマッチング手法等により2つの画像を処理する。画像処理部3002は、各瓶像に対応する瓶、つまり実物の瓶について、ロボットシステム1が存在する3次元区間内での3次元の重心位置、長手方向及び当該長手方向での長さをそれぞれ、3次元の重心位置、姿勢及びサイズとして検出する。例えば、瓶の3次元の重心位置、姿勢及びサイズは、瓶像の2次元の重心位置、姿勢及びサイズを表す画素を画像処理することで検出されてもよい。
画像処理部3002は、2つの画像の少なくとも一方における各透明瓶像について、当該透明瓶像に設定された識別情報であるIDと、当該透明瓶像の色区分と、当該透明瓶像の2次元の重心位置及び姿勢を示す画素座標と、当該透明瓶像に対応する透明瓶の3次元の重心位置、姿勢及びサイズとを対応付けて第1指標処理部3003に出力する。画像処理部3002は、2つの画像の少なくとも一方における各色付き瓶像について、当該色付き瓶像に設定された識別情報であるIDと、当色付き瓶像の色区分と、当色付き瓶像の2次元の重心位置及び姿勢を示す画素座標と、当該色付き瓶像に対応する色付き瓶の3次元の重心位置、姿勢及びサイズとを対応付けて第2指標処理部3004に出力する。
また、画像処理部3002は、瓶像のエッジを抽出した2つの画像の一方を用いて、瓶像のエッジを強調した画像を生成する。画像処理部3002は、指標処理部3003及び3004に出力する瓶像の2次元の重心位置及び長手方向が検出された画像を用いる。画像処理部3002は、1つの画像から、透明瓶像のエッジのみが強調された第1画像と、色付き瓶像のエッジのみが強調された第2画像とを生成する。画像が透明瓶像のみを含む場合、画像処理部3002は、エッジを強調せずに第2画像を生成する。画像が色付き瓶のみを含む場合、画像処理部3002は、エッジを強調せずに第1画像を生成する。画像処理部3002は、第1画像を第1画像合成部3005に出力し、第2画像を第2画像合成部3006に出力する。本実施の形態では、画像処理部3002はエッジを太くすることによって当該エッジを強調する。エッジの強調方法は特に限定されず、エッジを目立つ色にする、エッジを光らせる、エッジを点滅させる等のいかなる方法であってもよい。
例えば、図7は、実施の形態に係る情報処理装置300によって画像処理された画像の一例を示す図である。図7に示すように、撮像された画像I1が透明瓶像WTI及び色付き瓶像WCIを含む場合、第1画像I1Aでは、透明瓶像WTIのエッジのみが強調され、第2画像I1Bでは、色付き瓶像WCIのエッジのみが強調される。
第1指標処理部3003は、透明瓶像の2次元の重心位置及び姿勢と、当該透明瓶像に対応する透明瓶の3次元のサイズとを用いて、当該透明瓶の情報を第1画像上で表すための瓶指標を生成する。第1指標処理部3003は、記憶部3012内の実サイズ閾値に基づき、透明瓶の3次元のサイズを大小のサイズ区分に分類する。第1指標処理部3003は、位置指標、姿勢指標及びサイズ指標を含む瓶指標の画像データを生成する。位置指標は透明瓶の2次元の重心位置を表し、姿勢指標は透明瓶の2次元の長手方向を表し、サイズ指標は透明瓶のサイズ区分を表す。
図8は、実施の形態に係る情報処理装置300によって生成される瓶指標の第1重畳画像の画面の一例を示す図である。図8に示すように、本実施の形態では、第1指標処理部3003によって生成される瓶指標TBIの位置指標は、瓶像の重心位置が中心である円によって表される。姿勢指標は、位置指標の円の中心を起点として延びる矢印の向きによって表される。サイズ指標は、瓶指標TBIの表示方法の差異によって表される。例えば、瓶が大サイズ区分に属する場合、瓶指標TBIは一点鎖線で表示され、瓶が小サイズ区分に属する場合、瓶指標TBIは破線で表示される、瓶指標の表示方法の差異は、線種の差異に限定されず、色、明るさ、点滅等を用いた差異であってもよい。また、サイズ指標は、姿勢指標の矢印の長さの差異によって表されてもよい。
第1指標処理部3003は、透明瓶像のIDと、当該透明瓶像に対応する透明瓶の瓶指標の画像データとを対応付けて第1画像合成部3005に出力する。瓶指標の画像データは、瓶指標の画像と、第1画像又は第2画像上での当該瓶指標の位置、姿勢及びサイズの情報とを含む。さらに、第1指標処理部3003は、上記透明瓶像のIDと、上記瓶指標に対応する透明瓶の3次元の重心位置、3次元の姿勢、サイズ区分及び色区分とを対応付けてロボット制御装置600に出力する。
第2指標処理部3004は、第1指標処理部3003と同様に、色付き瓶像の2次元の重心位置及び姿勢と、当該色付き瓶像に対応する色付き瓶の3次元のサイズとを用いて、当該色付き瓶の情報を第2画像上で表すための瓶指標を生成する。第2指標処理部3004は、色付き瓶像のIDと、当該色付き瓶像に対応する色付き瓶の瓶指標の画像データとを対応付けて第2画像合成部3006に出力する。さらに、第2指標処理部3004は、上記色付き瓶像のIDと、上記瓶指標に対応する色付き瓶の3次元の重心位置、3次元の姿勢、サイズ区分及び色区分とを対応付けてロボット制御装置600に出力する。
また、指標処理部3003及び3004はそれぞれ、入出力装置400A及び400Bへの入力情報に基づき、タッチスクリーン410に表示されている瓶指標を修正及び削除する処理、並びに、瓶指標を追加する処理を上述の処理と同様に行う。
第1画像合成部3005は、第1画像と透明瓶の瓶指標の画像データとを用いて、第1画像と透明瓶の瓶指標の画像とを合成する。第1画像合成部3005は、当該瓶指標の画像を、画像データに含まれる当該瓶指標の位置、姿勢及びサイズの情報に従って第1画像上に重畳表示させる。第1画像合成部3005は、例えば、図8に示すような第1重畳画像I1Aaを生成して入出力装置400Aに出力しタッチスクリーン410に表示させる。瓶指標は、当該瓶指標に対応する瓶像上に重畳表示される。
第2画像合成部3006は第1画像合成部3005と同様に、第2画像と、色付き瓶の瓶指標の画像データと、画像上での当該瓶指標の位置、姿勢及びサイズの情報とを用いて、第2画像上に色付き瓶の瓶指標を重畳表示させる画像を生成する。第2画像合成部3006は、例えば、図9に示すような第2重畳画像I1Baを生成して入出力装置400Bに出力しタッチスクリーン410に表示させる。図9は、実施の形態に係る情報処理装置300によって生成される瓶指標の第2重畳画像の画面の一例を示す図である。
図6に示す入力解析部3007及び3008は、位置検出部、サイズ検出部、姿勢検出部の一例である。第1入力解析部3007は、入出力装置400Aのタッチスクリーン410に入力される入力情報を受け取って解析する。第2入力解析部3008は、入出力装置400Bのタッチスクリーン410に入力される入力情報を受け取って解析する。例えば、入力解析部3007及び3008は、入力情報を解析することで、表示中の瓶指標に対する修正指令及び削除指令、瓶指標の追加指令、並びに、各指令内容を検出する。第1入力解析部3007は、検出結果を第1指標処理部3003及び第1変換部3009に出力する。第2入力解析部3008は、検出結果を第2指標処理部3004及び第2変換部3010に出力する。
入力解析部3007及び3008は、タッチスクリーン410上で瓶指標の位置指標である円の位置の修正指令を検出すると、画面上で指示される円の修正位置を検出し、当該修正位置での円の中心の画素座標を指示位置として検出する。入力解析部3007及び3008は、タッチスクリーン410上で姿勢指標である矢印の向きの修正指令を検出すると、画面上で指示される矢印の修正方向を検出し、当該修正方向での矢印の向きを示す画素座標、例えば、矢印のベクトル成分を指示姿勢として検出する。例えば、指示姿勢は、画面上でなされた指示が形成する軌跡に対応する方向を示してもよい。入力解析部3007及び3008は、タッチスクリーン410上でサイズ指標の修正指令を検出すると、画面上で指示される指示サイズを検出し、指示サイズに対応するサイズ区分(以下、「指示サイズ区分」とも表記する)を検出する。例えば、指示サイズは、画面上でなされた指示が形成する軌跡に対応するサイズであってもよい。入力解析部3007及び3008は、指示サイズと画像サイズ閾値との比較結果に基づき指示サイズ区分を決定する。入力解析部3007及び3008は、指示サイズが画像サイズ閾値以上である場合に指示サイズ区分を大サイズ区分に決定し、画像サイズ閾値未満である場合に指示サイズ区分を小サイズ区分に決定する。
第1入力解析部3007は、瓶指標のIDと、当該瓶指標に対する指示位置、指示姿勢及び指示サイズ区分の組とを対応付けて、第1指標処理部3003及び第1変換部3009に出力する。瓶指標のIDは、瓶指標に対応する瓶像のIDである。第2入力解析部3008も同様に、瓶指標のIDと、当該瓶指標に対する指示位置、指示姿勢及び指示サイズ区分の組とを対応付けて、第2指標処理部3004及び第2変換部3010に出力する。指標処理部3003及び3004はそれぞれ、入力解析部3007及び3008から受け取った上記のような情報に基づき、位置指標、姿勢指標及びサイズ指標を修正することで瓶指標を修正し、修正後の瓶指標のID及び画像データを画像合成部3005及び3006に出力し、修正前の瓶指標を修正後の瓶指標に替えてタッチスクリーン410上に表示させる。
例えば、図10は、実施の形態に係る情報処理装置300によって修正される瓶指標を表示する第1重畳画像の画面の一例を示す図である。図11は、実施の形態に係る情報処理装置300による修正後の瓶指標を表示する第1重畳画像の画面の一例を示す図である。図10に示すように、例えば、タッチスクリーン410上の透明瓶像WTIaの瓶指標TBIaの位置指標を修正する場合、瓶指標TBIaの円TBIa1の円周が、操作者の指等のタップにより選択され、タップ位置がスライドされることで、円TBIa1がタップ位置のスライド方向及びスライド量に対応する方向及び移動量で移動される。指がタッチスクリーン410から離されると、円TBIa1の移動が停止する。上記過程において、第1入力解析部3007は、円TBIa1の円周上のタップを位置指標の修正指令として検出し、タップ位置のスライド方向及びスライド量に対応して移動する円TBIa1の中心の画素座標を、指示位置として検出する。指示位置は、タップ位置が形成する軌跡に対応する位置である。第1指標処理部3003は、図11に示すように、中心と共に移動する円TBIa1の画像データを生成しタッチスクリーン410上に表示させる。
また、図10に示すように、例えば、瓶指標TBIaの姿勢指標を修正する場合、瓶指標TBIaの矢印TBIa2が、指等のタップにより選択され、タップ位置が矢印TBIa2と交差する方向にスライドされることで、矢印TBIa2が指のスライド方向及びスライド量に対応する方向及び角度量で、円TBIa1の中心を中心として回動され、その向きを変える。指がタッチスクリーン410から離されると、矢印TBIa2の回動が停止する。上記過程において、第1入力解析部3007は、矢印TBIa2上のタップを姿勢指標の修正指令として検出し、タップ位置のスライド方向及びスライド量に対応して回動する矢印TBIa2のベクトルの画素座標を、指示姿勢として検出する。指示姿勢は、タップ位置が形成する軌跡に対応する方向である。第1指標処理部3003は、図11に示すように、ベクトルと共に回動する矢印TBIa2の画像データを生成しタッチスクリーン410上に表示させる。
また、図10に示すように、例えば、透明瓶像WTIbの瓶指標TBIbのサイズ指標を修正する場合、瓶指標TBIbの矢印TBIb2が、指等のタップにより選択され、タップ位置が矢印TBIb2の軸方向にスライドされる。これにより、矢印TBIb2がタップ位置のスライド量に対応する距離でスライド方向に引き伸ばされる又は縮められ、その長さを変える。指がタッチスクリーン410から離されると、矢印TBIa2の長さが伸縮前の長さに戻る。
上記過程において、第1入力解析部3007は、矢印TBIa2上のタップをサイズ指標の修正指令として検出し、矢印TBIb2の向きでの円TBIb1の中心からタップ位置までの距離を、指示サイズとして検出する。指示サイズは、タップ位置が形成する軌跡に対応するサイズである。さらに、第1入力解析部3007は、上記距離と画像サイズ閾値とを比較することで、指示サイズ区分を決定する。第1指標処理部3003は、上記距離に従って矢印TBIa2を伸縮させ且つ指示サイズ区分に対応して瓶指標の線種を変える瓶指標TBIbの画像データを生成し、タッチスクリーン410上に表示させる。図10では、瓶指標TBIbは、誤って検出された小サイズ区分を表す破線で表されるが、サイズ指標の修正後の図11では、瓶指標TBIbは、大サイズ区分を表す一点鎖線で表される。また、指の移動中でのサイズ区分の変化に応じて瓶指標の線種が変わるため、ユーザは、サイズ指標の修正動作中にサイズ区分を確認できる。
さらに、図11に示すようなタッチスクリーン410上に表示されるボタン「決定」が、指等のタップにより選択されると、第1指標処理部3003は、現時点から直近に変更を受けた瓶指標に対して、当該瓶指標が受けた変更を決定する。上記変更は、瓶指標の修正、削除及び追加を含む。第1入力解析部3007は、変更が決定された瓶指標の位置指標、姿勢指標及びサイズ指標をIDと共に第1変換部3009に出力する。また、タッチスクリーン410上に表示されるボタン「元に戻す」が選択されると、第1指標処理部3003は、現時点から直近に変更を受けた瓶指標に対して、当該瓶指標が受けた変更を取り消し元の状態である変更前の状態に戻す。また、タッチスクリーン410上に表示されるボタン「やり直し」が選択されると、第1指標処理部3003は、ボタン「元に戻す」の選択により変更前の状態に戻された瓶指標に対して、取り消された変更を復活させ当該変更後の状態に戻す。第2指標処理部3004も、ボタンの選択に従って第1指標処理部3003と同様に動作する。
第1入力解析部3007は、入出力装置400Aのタッチスクリーン410上で瓶指標の削除指令を検出すると、当該瓶指標のIDと当該瓶指標の削除指令とを第1指標処理部3003及び第1変換部3009に出力する。第2入力解析部3008は、入出力装置400Bのタッチスクリーン410上で瓶指標の削除指令を検出すると、当該瓶指標のIDと当該瓶指標の削除指令とを第2指標処理部3004及び第2変換部3010に出力する。指標処理部3003及び3004はそれぞれ、該当する瓶指標ID及びその画像の削除指令を画像合成部3005及び3006に出力し当該瓶指標の画面表示を削除させる。
図12は、実施の形態に係る情報処理装置300によって削除される瓶指標を表示する第1重畳画像の画面の一例を示す図である。図13は、実施の形態に係る情報処理装置300による瓶指標の削除後の第1重畳画像の画面の一例を示す図である。図12では、色付き瓶像WCIcの瓶指標TBIcがタッチスクリーン410上に誤って表示され、削除対象である。そして、瓶指標TBIcの円TBIc1の円周の内側領域が、指等のタップにより選択されることで、瓶指標TBIcが削除される。上記過程において、第1入力解析部3007は、円TBIc1の円周の内側領域上のタップを瓶指標TBIcの削除指令として検出し、第1指標処理部3003は、図13に示すように、瓶指標TBIcの画像をタッチスクリーン410上から削除させる。
入力解析部3007及び3008は、タッチスクリーン410上で瓶指標の位置指標の追加指令を検出すると、画面上で指示される位置の画素座標を指示位置として検出する。入力解析部3007及び3008は、タッチスクリーン410上で姿勢指標の追加指令を検出すると、画面上で指示される方向を示す画素座標を指示姿勢として検出する。入力解析部3007及び3008は、タッチスクリーン410上でサイズ指標の追加指令を検出すると、画面上で指示されるサイズを指示サイズとして検出する。さらに、入力解析部3007及び3008は、指示サイズが画像サイズ閾値以上である場合に指示サイズ区分を大サイズ区分に決定し、画像サイズ閾値未満である場合に指示サイズ区分を小サイズ区分に決定する。
入力解析部3007及び3008はそれぞれ、新規瓶指標のIDと、当該瓶指標に対する指示位置、指示姿勢及び指示サイズ区分の組とを対応付けて、第1指標処理部3003及び第1変換部3009、並びに、第2指標処理部3004及び第2変換部3010に出力する。指標処理部3003及び3004はそれぞれ、入力解析部3007及び3008から受け取った上記のような情報に基づき、新規位置指標、新規姿勢指標及び新規サイズ指標を含む新規瓶指標を生成し、当該新規瓶指標のID及び画像データを画像合成部3005及び3006に出力しタッチスクリーン410上に表示させる。
図14及び図15は、実施の形態に係る情報処理装置300によって瓶指標が追加される状態を表示する第1重畳画像の画面の一例を示す図である。図16は、実施の形態に係る情報処理装置300による瓶指標の追加後の第1重畳画像の画面の一例を示す図である。図14では、透明瓶像WTId上には瓶指標が誤って表示されておらず、透明瓶像WTIdが瓶指標の追加対象である。そして、新規瓶指標TBIdの新規位置指標の指示位置が、指等のタップにより透明瓶WTdの像上で指定され、新規位置指標の円TBId1が指示位置を中心として表示される。次いで、図15に示すように、タップしている指がスライドされた後にタッチスクリーン410から離されることで、図16に示すように、新規姿勢指標を示す矢印TBId2が、タップ位置のスライド方向に対応する方向で表示される。さらに、新規瓶指標TBIdは、タップ位置のスライド量に対応するサイズ区分のサイズ指標を示す線種である一点鎖線で表わされる。
上記過程において、第1入力解析部3007は、瓶指標が存在しない位置でのタップを新規位置指標の追加指令として検出し、タップ位置の画像座標を指示位置として検出し、第1指標処理部3003は、指示位置の画素座標を新規位置指標の画素座標とする。第1入力解析部3007は、指示位置からのタップ位置の移動を新規姿勢指標及び新規サイズ指標の追加指令として検出する。第1入力解析部3007は、タップ位置の軌跡から、タップ位置のスライド方向を示す画素座標を指示姿勢として検出し、第1指標処理部3003は、指示姿勢の画素座標を新規姿勢指標の画素座標とする。第1入力解析部3007は、上記スライド方向での指示位置からタップ位置までの距離を、指示サイズとして検出し、指示サイズと画像サイズ閾値とを比較することで指示サイズ区分を決定する。第1指標処理部3003は、指示サイズ区分を新規サイズ指標が示すサイズ区分とする。さらに、第1指標処理部3003は、図16に示すように、新規位置指標、新規姿勢指標及び新規サイズ指標に基づき、新規瓶指標TBIdの画像データを生成しタッチスクリーン410上に表示させる。
上記では、入出力装置400Aのタッチスクリーン410への入力情報に基づく第1入力解析部3007の処理内容を例示したが、第2入力解析部3008も、入出力装置400Bのタッチスクリーン410への入力情報に基づき、第1入力解析部3007と同様の処理を実行する。
変換部3009及び3010は、位置情報検出部、サイズ情報検出部、姿勢情報検出部、出力部の一例である。変換部3009及び3010はそれぞれ、入力解析部3007及び3008から受け取った情報を変換して瓶の情報である対象物情報を検出し、当該対象物情報をロボット制御装置600に出力する。具体的には、変換部3009及び3010は、修正、削除又は追加対象の瓶指標に対する指示位置、指示姿勢及び指示サイズ区分を変換することで、上記瓶指標に対応する瓶の3次元の重心位置、3次元の姿勢及びサイズ区分を検出する。本実施の形態では、指示サイズ区分と瓶のサイズ区分とは同じ構成であるが、異なっていて互いに対応付けられていてもよい。上記検出は、画像から瓶像の瓶の3次元の位置、サイズ及び姿勢を検出するための画像処理部3002の演算と同様の演算等により可能である。変換部3009及び3010は、修正、削除又は追加された瓶指標に対応する瓶の3次元の重心位置、3次元の姿勢、サイズ区分及び色区分と当該瓶のIDとを対応付けて含む対象物情報を、ロボット制御装置600に出力する。ロボット制御装置600は、受け取った対象物情報を用いて瓶を認識しロボット100A及び100Bを制御する。
機能設定部3011は、入出力装置400A及び400Bから受け取る指令に従って、情報処理装置300の機能を設定する。図17は、実施の形態に係る情報処理装置300の機能を設定する画面の一例を示す図である。例えば、図16に示すようなタッチスクリーン410に表示されるボタン「設定」が、指等のタップにより選択されると、機能設定部3011は、当該タッチスクリーン410に、例えば図17に示すような機能設定画面FSを表示させ、情報処理装置300の機能設定を受け付ける。機能設定画面FSは、少なくとも1つの設定項目を表示し、本実施の形態では、「検出レベル」、「円サイズ」及び「大小判定長さ」の設定項目を表示する。また、タッチスクリーン410に表示されるボタン「戻る」が選択されると、機能設定部3011は機能設定画面FSを閉じる。
「検出レベル」は、撮像装置500によって撮像された画像における瓶の認識精度を設定するための項目であり、例えば、「高精度」、「標準」及び「低精度」の3つ精度レベルへの設定を可能にする。瓶の認識精度は、瓶自体の認識精度、並びに、瓶の色、形状、サイズ及び位置等の認識精度を含んでもよい。「円サイズ」は、瓶指標の位置指標を示す「円」のタッチスクリーン410上での表示サイズを設定するための項目であり、「大」、「中」及び「小」の3つのサイズレベルへの設定を可能にする。「大小判定長さ」は、瓶のサイズ区分の実サイズ閾値及び画像サイズ閾値を設定するための項目であり、「長」、「中」及び「短」の3つの長さレベルへの設定を可能にする。
各項目のレベルの横に表示される逆三角形マークが選択されると、機能設定部3011は当該項目の設定可能なレベルを表示する。機能設定部3011は、表示されるレベルのうちから選択されたレベルを当該項目のレベルに決定し、情報処理装置300の各機能的構成要素に通知する。例えば、機能設定部3011は、決定された「検出レベル」を画像処理部3002に通知する。機能設定部3011は、決定された「円サイズ」を指標処理部3003及び3004に通知する。機能設定部3011は、決定された「大小判定長さ」を入力解析部3007及び3008、指標処理部3003及び3004等に通知する。
<ロボットシステムの動作>
実施の形態に係るロボットシステム1の動作を説明する。具体的には、ロボットシステム1が、ベルトコンベヤ200上の瓶をロボット制御装置600に認識させる動作を説明する。図18は、実施の形態に係るロボットシステム1の動作の一例を示すフローチャートである。
図18に示すように、ステップS101において、情報処理装置300は、撮像装置500にベルトコンベヤ200の搬送面221を所定の時間間隔で撮像させ、撮像された画像データを受け取る。
次いで、ステップS102において、情報処理装置300は、画像データを画像処理することで、透明瓶像のエッジが強調表示された第1画像と、色付き瓶像のエッジが強調表示された第2画像とを生成する。
次いで、ステップS103において、情報処理装置300は、第1画像上の透明瓶像及び第2画像上の色付き瓶像の位置指標、姿勢指標及びサイズ指標を検出し、瓶指標を生成する。情報処理装置300は、透明瓶像の瓶指標を第1画像の瓶像の上に重畳表示する第1重畳画像を生成し、入出力装置400Aに表示させる。情報処理装置300は、色付き瓶像の瓶指標を第2画像の瓶像の上に重畳表示する第2重畳画像を生成し、入出力装置400Bに表示させる。本実施の形態では、第1重畳画像及び第2重畳画像は静止画像であるが、これに限定されず、動画像であってもよい。
次いで、ステップS104において、情報処理装置300は、透明瓶像の瓶指標及び色付き瓶像の瓶指標それぞれに対応する実物の透明瓶の情報及び実物の色付き瓶の情報をロボット制御装置600に出力する。瓶の情報は、当該瓶のID、3次元の重心位置、3次元の姿勢、サイズ区分及び色区分を含む。ロボット制御装置600は、実物の透明瓶及び色付き瓶の情報に基づき各瓶を認識する。
以下のステップS105以降では、情報処理装置300は、入出力装置400Aへの入力情報に対応した処理と、入出力装置400Bへの入力情報に対応した処理とを行うが、いずれも同様の処理であるため、入出力装置400Aへの入力情報に対応した処理のみを説明する。
ステップS105において、情報処理装置300は、瓶指標を修正する入力、つまり修正指令を検出したか否かを判定し、検出した場合(ステップS105でYes)にステップS106に進み、検出していない場合(ステップS105でNo)にステップS108に進む。
ステップS106において、情報処理装置300は、瓶指標の修正指令の内容に従って、当該瓶指標の位置指標、姿勢指標及び/又はサイズ指標を修正し、修正後の瓶指標を入出力装置400Aに表示させる。例えば図10に示すように、位置指標の修正は位置指標を表す円を移動させることで行われる。姿勢指標の修正は姿勢指標を表す矢印を回動させることで行われる。サイズ指標の修正は上記矢印を伸縮させることで行われる。
次いで、ステップS107において、情報処理装置300は、修正後の瓶指標に対応する瓶のID、3次元の重心位置、3次元の姿勢、サイズ区分及び色区分を含む実物の瓶の情報を修正し、ロボット制御装置600に出力する。ロボット制御装置600は、ロボット100Aの処理対象の瓶の情報において、修正後の瓶指標に対応する瓶の情報を修正し、当該瓶を認識する。情報処理装置300は、ステップS114に進む。
ステップS108において、情報処理装置300は、瓶指標を削除する入力、つまり削除指令を検出したか否かを判定し、検出した場合(ステップS108でYes)にステップS109に進み、検出していない場合(ステップS108でNo)にステップS111に進む。
ステップS109において、情報処理装置300は、瓶指標の削除指令に従って、当該瓶指標を削除した画面を入出力装置400Aに表示させる。例えば図12に示すように、瓶指標の削除は、当該瓶指標の位置指標を表す円の内側領域を指定することで行われる。
次いで、ステップS110において、情報処理装置300は、削除対象の瓶指標に対応する瓶の情報をロボット制御装置600に出力する。ロボット制御装置600は、削除対象の瓶の情報をロボット100Aの処理対象の瓶の情報から除外する。情報処理装置300は、ステップS114に進む。
ステップS111において、情報処理装置300は、瓶指標を追加する入力、つまり追加指令を検出したか否かを判定し、検出した場合(ステップS111でYes)にステップS112に進み、検出していない場合(ステップS111でNo)にステップS114に進む。
ステップS112において、情報処理装置300は、瓶指標の追加指令の内容に従って、新規瓶指標の位置指標、姿勢指標及びサイズ指標を検出し、当該新規瓶指標を入出力装置400Aに表示させる。例えば図14及び図15に示すように、瓶指標の追加は、新規位置指標を表す円の中心位置を指定した後に、新規姿勢指標及び新規サイズ指標に対応する矢印を上記中心位置から引き伸ばすことで行われる。
次いで、ステップS113において、情報処理装置300は、新規瓶指標に対応する瓶のID、3次元の重心位置、3次元の姿勢、サイズ区分及び色区分を含む実物の瓶の情報を追加して検出しロボット制御装置600に出力する。ロボット制御装置600は、新規瓶指標に対応する瓶の情報をロボット100Aの処理対象の瓶の情報に加え、当該瓶を認識する。情報処理装置300は、ステップS114に進む。
ステップS114において、情報処理装置300は、撮像装置500により新たに画像を撮像するタイミングであるか否かを判定し、当該タイミングである場合(ステップS114でYes)にステップS101に戻り、当該タイミングに未だ至っていない場合(ステップS114でNo)にステップS105に戻る。情報処理装置300は、計時するためのタイマ又はクロックを備えてもよい。
上述のように、情報処理装置300は、撮像装置500により画像が撮像される毎に、当該画像を用いて第1重畳画像及び第2重畳画像を生成して表示し、各重畳画像に含まれる瓶指標それぞれに対応する瓶の3次元の重心位置、3次元の姿勢、サイズ区分及び色区分をロボット制御装置600に出力する。さらに、情報処理装置300は、瓶指標の修正、削除又は追加が行われると、修正、削除又は追加の瓶指標に対応する瓶の3次元の重心位置、3次元の姿勢、サイズ区分及び色区分等の情報をロボット制御装置600に出力する。操作者は、第1重畳画像及び第2重畳画像を画面上で視認して瓶指標の適正又は不適正を判断し、当該画面上で瓶指標の修正、削除又は追加を行うことができる。本実施の形態では、画面上でのタップ及びスライドのみの組み合わせにより、瓶指標の修正、削除及び追加が可能である。ロボット制御装置600は、情報処理装置300によって自動で検出された瓶の情報だけでなく、操作者によって修正、削除又は追加された瓶指標に対応する瓶の情報を用いて各瓶を認識しロボット100A及び100Bを制御できる。
<効果等>
実施の形態に係る情報処理装置300において、入力解析部3007及び3008は、位置検出部として機能し、対象物である瓶が映し出される画面上で指示される瓶の指示位置を検出し、サイズ検出部として機能し、画面上で指示される瓶の指示サイズを検出する。変換部3009及び3010は、位置情報検出部として機能し、指示位置に基づき瓶の実物の位置を検出し、サイズ情報検出部として機能し、指示サイズに基づき瓶の実物のサイズを検出し、出力部として瓶の実物の位置及びサイズの情報を含む対象物情報を出力する。指標処理部3003及び3004は、指示位置を表す位置指標と瓶の実物のサイズを表すサイズ指標とを生成し画面上に表示する。なお、入力解析部3007及び3008は、画面上でなされた指示が形成する軌跡に対応するサイズを指示サイズとして検出してもよい。
上記構成によると、情報処理装置300は、瓶が映し出される画面上で指示される瓶の位置及びサイズに基づき、瓶の実物の位置及びサイズを検出し出力する。よって、情報処理装置300は、画像に含まれる瓶の実物を認識するための画面上での設定を可能にする。さらに、情報処理装置300は、瓶の位置指標及びサイズ指標、つまり、指示された内容を表す指標を生成し画面上に表示する。よって、画面上での瓶の位置及びサイズの認識が容易になる。
また、変換部3009及び3010は、対象物情報を、瓶の実物に対する処理作業を行うロボット100A及び100Bを制御するロボット制御装置600に出力してもよい。上記構成によると、ロボット制御装置600は、対象物情報を用いて瓶の実物を認識し、認識結果に基づきロボット100A及び100Bに瓶の処理作業を行わせることができる。よって、ロボット100A及び100Bの作業精度の向上が可能になる。
また、実施の形態に係る情報処理装置300において、画像処理部3002は、第1画像処理部として機能し、瓶が映し出される画像を処理することで当該画像から瓶を抽出し、抽出された瓶の実物の位置及びサイズを検出してもよい。さらに、指標処理部3003及び3004は、画像処理部3002によって検出された瓶の実物の位置及びサイズに対応する位置指標及びサイズ指標を生成し表示してもよい。上記構成によると、情報処理装置300は、瓶が映し出される画像を処理することで、当該瓶の位置指標及びサイズ指標を自動で生成し表示することができる。
また、入力解析部3007及び3008は、画面上で加えられる位置指標への修正又は削除の指示を検出し、当該指示に従って指示位置を修正又は削除してもよい。さらに、変換部3009及び3010は、修正又は削除された指示位置に基づき、瓶の実物の位置の情報を修正又は削除し、当該位置の情報を含む対象物情報を出力してもよい。さらに、指標処理部3003及び3004は、修正又は削除された指示位置に基づき、位置指標を修正又は削除してもよい。上記構成によると、情報処理装置300は、画面上に表示されている位置指標に対する修正及び削除を受け付け、当該修正及び削除を当該位置指標及び当該位置指標に対応する瓶の実物の位置の情報に反映することができる。
また、入力解析部3007及び3008は、画面上で加えられるサイズ指標への修正又は削除の指示を検出し、当該指示に従って指示サイズを修正又は削除してもよい。さらに、変換部3009及び3010は、修正又は削除された指示サイズに基づき、瓶の実物のサイズの情報を修正又は削除し、当該サイズの情報を含む対象物情報を出力してもよい。さらに、指標処理部3003及び3004は、修正又は削除された瓶の実物のサイズに基づき、サイズ指標を修正又は削除してもよい。上記構成によると、情報処理装置300は、画面上に表示されているサイズ指標に対する修正及び削除を受け付け、当該修正及び削除を当該サイズ指標及び当該サイズ指標に対応する瓶の実物のサイズの情報に反映することができる。
実施の形態に係る情報処理装置300において、入力解析部3007及び3008は、位置検出部として機能し、瓶が映し出される画面上での瓶の指示位置を検出し、姿勢検出部として機能し、画面上で指示される瓶の指示姿勢を検出する。変換部3009及び3010は、位置情報検出部として機能し、指示位置に基づき瓶の実物の位置を検出し、姿勢情報検出部として機能し、指示姿勢に基づき瓶の実物の姿勢を検出し、瓶の実物の位置及び姿勢の情報を含む対象物情報を出力する。指標処理部3003及び3004は、指示位置を表す位置指標と指示姿勢を表す姿勢指標とを生成し画面上に表示する。なお、入力解析部3007及び3008は、画面上でなされた指示が形成する軌跡に対応する方向を指示姿勢として検出してもよい。
上記構成によると、情報処理装置300は、瓶が映し出される画面上で指示される瓶の位置及び姿勢に基づき、瓶の実物の位置及び姿勢を検出し出力する。よって、情報処理装置300は、画像に含まれる瓶の実物を認識するための画面上での設定を可能にする。さらに、情報処理装置300は、瓶の位置指標及び姿勢指標を生成し画面上に表示するため、画面上での瓶の位置及び姿勢の認識を容易にする。
さらに、入力解析部3007及び3008は、画面上で指示される瓶の指示サイズを検出し、変換部3009及び3010は、当該指示サイズに基づき、瓶の実物のサイズを検出し、当該サイズの情報をさらに含む対象物情報を出力してもよい。さらに、指標処理部3003及び3004は、瓶のサイズ指標をさらに生成し画面上に表示してもよい。上記構成によると、情報処理装置300は、画面上で指示された指示位置、指示姿勢及び指示サイズに基づき、瓶の実物の位置、姿勢及びサイズを検出し出力する。よって、情報処理装置300は、実物の瓶の認識精度を向上する。さらに、情報処理装置300は、瓶の位置指標、姿勢指標及びサイズ指標を生成し画面上に表示するため、画面上での瓶の位置、姿勢及びサイズの認識を容易にする。
また、画像処理部3002は、瓶が映し出される画像を処理することで当該瓶の実物の位置及び姿勢し、指標処理部3003及び3004は、当該瓶の実物の位置及び姿勢に対応する位置指標及び姿勢指標を生成し表示してもよい。上記構成によると、情報処理装置300は、瓶が映し出される画像を処理することで、当該瓶の位置指標及び姿勢指標を自動で生成し表示することができる。
さらに、画像処理部3002は、第2画像処理部として機能し、瓶が映し出される画像を処理することで当該瓶の実物のサイズを検出し、指標処理部3003及び3004は、当該瓶の実物のサイズに対応するサイズ指標を生成し表示してもよい。上記構成によると、情報処理装置300は、瓶が映し出される画像を処理することで、当該瓶の位置指標、姿勢指標及びサイズ指標を自動で生成し表示することができる。
また、入力解析部3007及び3008は、画面上で加えられる姿勢指標への修正又は削除の指示を検出し、当該指示に従って指示姿勢を修正又は削除してもよい。さらに、変換部3009及び3010は、修正又は削除された指示姿勢に基づき、瓶の実物の姿勢の情報を修正又は削除し、当該姿勢の情報を含む対象物情報を出力してもよい。さらに、指標処理部3003及び3004は、修正又は削除された指示姿勢に基づき姿勢指標を修正又は削除してもよい。上記構成によると、情報処理装置300は、画面上に表示されている姿勢指標に対する修正及び削除を受け付け、当該修正及び削除を当該姿勢指標及び当該姿勢指標に対応する瓶の実物の姿勢の情報に反映することができる。
また、実施の形態に係る設定装置10は、情報処理装置300と、入出力装置400A及び400Bとを備え、入出力装置400A及び400Bは、画面を表示するディスプレイと、指示の入力を受け付け情報処理装置300に出力する入力装置とを備える。例えば、入出力装置400A及び400Bは、ディスプレイの機能と入力装置の機能とを含むタッチスクリーン410を備えてもよい。上記構成によると、実施の形態に係る情報処理装置300と同様の効果が得られる。さらに、設定装置10は、画像に含まれる瓶の実物を認識するための設定の入力を可能にする。
また、実施の形態に係る画像認識システム20は、設定装置10と、瓶の実物を撮像し且つ撮像された画像を設定装置10に出力する撮像装置500とを備える。上記構成によると、実施の形態に係る情報処理装置300と同様の効果が得られる。さらに、画像認識システム20は、瓶の実物を撮像し、撮像された画像に含まれる瓶の実物を認識するための設定を可能にする。
また、実施の形態に係る画像認識システム20において、情報処理装置300の画像処理部3002は、第3画像処理部として機能し、瓶の実物が撮像された画像を処理することで当該瓶の実物の位置、サイズ及び姿勢を検出してもよい。さらに、指標処理部3003及び3004は、画像処理部3002によって検出された瓶の実物の位置、サイズ及び姿勢に対応する位置指標、サイズ指標及び姿勢指標を生成しディスプレイの画面上に表示してもよい。上記構成によると、画像認識システム20は、撮像装置500によって撮像された画像を用いて、瓶の位置指標、姿勢指標及びサイズ指標を自動で生成し表示することができる。
また、実施の形態に係るロボットシステム1は、画像認識システム20と、瓶の実物に対する処理作業を行うロボット100A及び100Bと、ロボット100A及び100Bを制御するロボット制御装置600とを備え、ロボット制御装置600は、情報処理装置300から出力される対象物情報を用いて、瓶の実物を認識し、ロボット100A及び100Bに瓶の実物を処理させる。上記構成によると、ロボットシステム1は、撮像装置500によって撮像された画像を用いて、実物の瓶の位置、姿勢及びサイズを自動で検出し、ロボット100A及び100Bの制御に適用することができる。さらに、ロボットシステム1は、入出力装置400A及び400Bの画面を介して、瓶の位置指標、姿勢指標及び/又はサイズ指標の設定を受け付け、受け付けた設定を実物の瓶の位置、姿勢及びサイズに反映することができる。よって、ロボットシステム1は、ロボット100A及び100Bの高精度な制御を可能にする。
<その他の実施の形態>
以上、本開示の実施の形態の例について説明したが、本開示は、上記実施の形態に限定されない。すなわち、本開示の範囲内で種々の変形及び改良が可能である。例えば、各種変形を実施の形態に施したもの、及び、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の範囲内に含まれる。
例えば、実施の形態において、対象物指標である瓶指標は、位置指標、姿勢指標及びサイズ指標を含むが、対象物指標が含む指標はこれに限定されない。対象物指標は、位置指標、姿勢指標及びサイズ指標の少なくとも1つを含んでもよい。例えば、対象物指標は、対象物の位置が予め既知である場合に位置指標を含まなくてもよく、対象物が球体のように向きを有しない場合に姿勢指標を含まなくてもよく、各対象物のサイズが同一である場合にサイズ指標を含まなくてもよい。さらに、情報処理装置300が処理する対象物情報は、対象物の実物の位置、姿勢及びサイズの情報の少なくとも1つを含んでもよい。
また、実施の形態において、瓶指標に対する修正、削除及び追加の情報を入出力装置400A及び400Bに入力する方法として、指又はペン等によるタッチスクリーン410へのタップ及びスライドの組み合わせの入力方法が用いられるが、これに限定されない。位置、方向及び距離を検出することができる入力方法であればよい。例えば、方向及び距離の入力は、起点位置及び終点位置を指定する入力であってもよい。
また、実施の形態において、情報処理装置300の入力解析部3007及び3008は、タッチスクリーン410に入力される指示サイズのサイズ区分を検出し、変換部3009及び3010に出力するが、これに限定されない。例えば、変換部3009及び3010が、入力解析部3007及び3008から受け取る指示サイズからサイズ区分を検出してもよい。また、サイズ区分が用いられなくてもよい。例えば、入力解析部3007及び3008が変換部3009及び3010に指示サイズを出力し、変換部3009及び3010が、指示サイズを用いて実物の瓶のサイズを検出してもよい。
また、実施の形態において、入出力装置400A及び400Bは、画面表示し且つ瓶指標に対する修正、削除及び追加の情報の入力を受け付けるために、タッチスクリーン410を備えるが、これに限定されない。例えば、入出力装置400A及び400Bは、画面表示するディスプレイと、入力を受け付ける入力装置とを分離して備えてもよい。例えば、入出力装置400A及び400Bは、入力装置に入力される指令に従って、ディスプレイ画面上のポインタ及びカーソル等の指示要素を動作させるように構成されてもよい。入力装置は、例えば、十字ボタン、プッシュスイッチ、レバー、ダイヤル、ジョイスティック、マウス、キー等を含む装置であってもよい。
また、実施の形態において、情報処理装置300は、撮像装置500によって撮像された同一の画像を処理し、透明瓶のエッジが強調された第1画像と、色付き瓶のエッジが強調された第2画像とを生成するが、これに限定されない。例えば、複数の撮像装置500がロボット100に対応して設けられてもよい。そして、情報処理装置300は、第1ロボット100Aに対応する第1撮像装置500によって撮像された画像を処理して第1画像を生成し、第2ロボット100Bに対応する第2撮像装置500によって撮像された画像を処理して第2画像を生成してもよい。
また、複数の情報処理装置300が、ロボット100に対応させる等により設けられてもよい。例えば、第1ロボット100Aに対応する第1情報処理装置300は第1画像に関する処理を行い、第2ロボット100Bに対応する第2情報処理装置300は第2画像に関する処理を行ってもよい。
また、実施の形態において、ロボット100は、水平多関節型の産業用ロボットであるが、これに限定されない、ロボット100は、例えば、垂直多関節型ロボット、極座標型ロボット、円筒座標型ロボット、直角座標型ロボット、又はその他の産業用ロボットとして構成されてもよい。ロボット100は、産業用ロボット以外であってもよく、サービスロボット、建設機械、クレーン、荷役搬送車、及びヒューマノイド等であってもよい。サービスロボットは、介護、医療、清掃、警備、案内、救助、調理、商品提供等の様々なサービス業で使用されるロボットである。
また、本開示の技術は、設定方法であってもよい。例えば、本開示の一態様に係る設定方法は、画面上に映し出される対象物の実物を認識するための前記対象物の位置及びサイズの設定方法であって、前記画面上で指示される前記対象物の位置である指示位置を検出し、前記画面上で指示される前記対象物のサイズである指示サイズを検出し、前記指示位置に基づき、前記対象物の実物の位置を検出し、前記指示サイズに基づき、前記対象物の実物のサイズを検出し、前記指示位置を表す位置指標と前記対象物の実物のサイズを表すサイズ指標とを生成し前記画面上に表示し、前記対象物の実物の位置及びサイズの情報を含む対象物情報を出力する。
また、本開示の別の一態様に係る設定方法は、画面上に映し出される対象物の実物を認識するための前記対象物の位置及び姿勢の設定方法であって、前記画面上で指示される前記対象物の位置である指示位置を検出し、前記画面上で指示される前記対象物の姿勢である指示姿勢を検出し、前記指示位置に基づき、前記対象物の実物の位置を検出し、前記指示姿勢に基づき、前記対象物の実物の姿勢を検出し、前記指示位置を表す位置指標と前記指示姿勢を表す姿勢指標とを生成し前記画面上に表示し、前記対象物の実物の位置及び姿勢の情報を含む対象物情報を出力する。
本開示の別の一態様に係る設定方法において、前記画面上で指示される前記対象物のサイズである指示サイズを検出し、前記指示サイズに基づき、前記対象物の実物のサイズを検出し、前記対象物の実物のサイズを表すサイズ指標をさらに生成し前記画面上に表示し、前記対象物の実物のサイズの情報をさらに含む前記対象物情報を出力してもよい。
上記設定方法によれば、上記情報処理装置300等と同様の効果が得られる。このような設定方法は、CPU、LSIなどの回路、ICカード又は単体のモジュール等によって、実現されてもよい。
また、本開示の技術は、上記設定方法を実行するためのプログラムであってもよく、上記プログラムが記録された非一時的なコンピュータ読み取り可能な記録媒体であってもよい。また、上記プログラムは、インターネット等の伝送媒体を介して流通させることができるのは言うまでもない。
また、上記で用いた序数、数量等の数字は、全て本開示の技術を具体的に説明するために例示するものであり、本開示は例示された数字に制限されない。また、構成要素間の接続関係は、本開示の技術を具体的に説明するために例示するものであり、本開示の機能を実現する接続関係はこれに限定されない。
また、機能ブロック図におけるブロックの分割は一例であり、複数のブロックを一つのブロックとして実現する、一つのブロックを複数に分割する、及び/又は、一部の機能を他のブロックに移してもよい。また、類似する機能を有する複数のブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。
[変形例]
以下、実施の形態の変形例について説明する。本例では、上記図6に示す情報処理装置300の画像処理部3002が、機械学習により予め生成された学習済みモデルを用いて、撮像装置500により生成されたカメラ画像から瓶の位置、色、及びサイズ等を検出することで、認識精度の向上を実現する。
以下の説明では、学習済みモデルを生成する学習フェーズ、学習済みモデルを使用する運用フェーズ、及び学習済みモデルの再学習について、それぞれ詳しく説明する。
(1)学習フェーズ
図19は、学習装置700の機能的構成例を示すブロック図である。図20は、学習用DB(データベース)710の内容例を示す図である。
学習装置700は、学習用DB710に保存された学習用データセットを用いて、画像中の瓶の位置、色、及びサイズを推定するための学習済みモデルを生成する。
学習装置700は、CPU、RAM、ROM、不揮発性メモリ、及び入出力インタフェース等を含むコンピュータである。学習装置700のCPUは、ROM又は不揮発性メモリからRAMにロードされたプログラムに従って情報処理を実行する。
学習装置700は、取得部701及び学習部702を備える。これらの機能部は、学習装置700のCPUがプログラムに従って情報処理を実行することによって実現される。
取得部701は、学習用DB710から学習用データセットを取得する。
学習部702は、取得部701により取得された学習用データセットを用いて、画像中の瓶の位置、色、及びサイズを推定するための学習済みモデルを機械学習により生成する。
図20に示すように、学習用DB710には、学習用画像、クラス、及び位置が互いに関連付けられた学習用データセットが記憶される。学習用画像は、入力データとして用いられる。クラス及び位置は、教師データとして用いられる。
学習用画像は、対象物である瓶の像を含んだ画像である。学習用画像は、例えばベルトコンベヤ200上の瓶Wを撮影する撮像装置500(図1参照)によって生成された画像である。これに限らず、学習用画像は、他の場所で瓶を撮影した画像であってもよい。
クラス及び位置は、学習用画像に含まれる瓶のクラス及び位置である。瓶のクラス及び位置は、例えば人によって判断され、入力される。
瓶のクラスは、例えば「透明瓶・大」、「透明瓶・小」、「色付き瓶・大」、及び「色付き瓶・小」等に分けられる。透明瓶であるか色付き瓶であるかは、瓶の色を表す。大であるか小であるかは、瓶のサイズを表す。瓶の色及びサイズは、瓶の属性の一例である。
瓶の位置は、学習用画像中の瓶の位置であり、例えば瓶を含む境界ボックスの座標で表される。境界ボックスの座標は、左上端のxy座標、幅、及び高さを含んでいる。これに限らず、瓶の位置は、例えば中心位置等の代表点の座標で表されてもよい。代表点は、学習用画像中の瓶の像の中の1点である。
図21は、学習装置700において実現される、学習済みモデルの生成処理の手順例を示す図である。学習済みモデルの生成処理は、ユーザの操作によって開始される。図22は、学習済みモデルの生成処理を説明するための図である。同図では、図21の各処理に対応する箇所に、処理のステップ番号を付す。
本例では、例えば SSD(Single Shot MultiBox Detector)等の物体検出モデルMDLが用いられる。物体検出モデルMDLの出力層には、クラス(Class name)、境界ボックスの座標(Bounding Box (x,y,w,h))、及び確度(Confidence)の要素が設けられる。SSD に限らず、Mask R-CNN 又は YOLO(You Only Look Once)等が用いられてもよい。
物体検出モデルMDLに限らず、画像の領域分割を行う Semantic Segmentation 又は Instance Segmentation 等の領域分割モデルが用いられてもよいし、画像中の特徴点を検出する Keypoint Detection 等の特徴点検出モデルが用いられてもよい。
図21に示すように、ステップS21において、取得部701は、学習用画像、クラス、及び位置を含む学習用データセットを学習用DB710から取得する
ステップS22において、学習部702は、学習用画像LPを入力データIPDとして物体検出モデルMDLに入力する。ステップS23において、学習部702は、物体検出モデルMDLによる計算を行う。ステップS24において、学習部702は、物体検出モデルMDLからクラス、位置、及び確度を出力データOPDとして出力する。クラスは、瓶の色及びサイズを表す。
ステップS25において、学習部702は、出力データOPDとしてのクラス及び位置と、教師データTRDとしてのクラス及び位置との誤差を算出する。ステップS26において、学習部702は、誤差を低減するように誤差逆伝播計算を行う。
以上の手順を繰り返すことにより、画像中の瓶の位置、色、及びサイズを推定するための学習済みモデル(すなわち、学習済みの物体検出モデル)が生成される。生成された学習済みモデルは、以下に説明する運用フェーズにおいて使用される。
(2)運用フェーズ
図23は、ロボットシステム1において実現される、学習済みモデルを用いた識別処理の手順例を示す図である。識別処理は、撮像装置500がベルトコンベヤ200上の瓶Wを撮像すると開始される。図24は、学習済みモデルを用いた識別処理を説明するための図である。なお、以下の説明では、上記図6に示す情報処理装置300の各機能部との関係についても言及する。
ステップS31において、情報処理装置300は、撮像装置500により生成されたカメラ画像CPを取得する(撮像制御部3001としての処理)。
ステップS32において、情報処理装置300は、上述の学習フェーズにおいて生成された学習済みモデルLMDLを用いて、カメラ画像CP中の瓶の位置、色、及びサイズを推定する(画像処理部3002としての処理)。
具体的には、情報処理装置300は、図24に示すように、カメラ画像CPを入力データIPDとして学習済みモデルLMDLに入力し、学習済みモデルLMDLによる計算を行い、クラス、位置、及び確度を出力データOPDとして出力する。クラスは、瓶の色及びサイズを表す。位置は、瓶を含む境界ボックスの座標を表す。また、情報処理装置300は、境界ボックスの座標に基づいて、境界ボックスの中心位置等の代表点の座標を算出し、それを瓶の位置としてもよい。
これに限らず、画像中の特徴点を検出するKeypoint Detection 等の領域分割モデルを用いて、カメラ画像CP中の瓶の代表点の座標を直接的に推定してもよい。また、画像の領域分割を行う Semantic Segmentation 等の領域分割モデルを用いて、カメラ画像中の瓶の領域を推定し、領域の中心位置等の代表点の座標を算出し、それを瓶の位置としてもよい。
ステップS33において、情報処理装置300は、推定された瓶の位置、色、及びサイズに基づいて、瓶指標を生成する(指標処理部3003,3004としての処理)。
具体的には、情報処理装置300は、推定された瓶の色が透明瓶である場合に、透明瓶の瓶指標を生成する(第1指標処理部3003としての処理)。また、情報処理装置300は、推定された瓶の色が色付き瓶である場合に、色付き瓶の瓶指標を生成する(第2指標処理部3004としての処理)。瓶指標は、推定された瓶の位置に基づく位置指標と、推定された瓶のサイズに基づくサイズ指標とを含んでいる。
ステップS34において、情報処理装置300は、入出力装置400A,400Bのタッチスクリーン410にカメラ画像と瓶指標を表示する(画像合成部3005,3006としての処理)。
具体的には、情報処理装置300は、カメラ画像と透明瓶の瓶指標の画像とを合成し、入出力装置400Aに出力する(第1画像合成部3005としての処理)。また、情報処理装置300は、カメラ画像と色付き瓶の瓶指標の画像とを合成し、入出力装置400Bに出力する(第2画像合成部3006としての処理)。合成された画像は、例えば上記図8及び図9に示した重畳画像と同様である。なお、カメラ画像と瓶指標の画像とを並べて表示してもよい。
ステップS35において、情報処理装置300は、表示された瓶指標に対する修正の指示がない場合に(S35:NO)、ステップS36に移行する。ステップS36において、情報処理装置300は、ステップS31において取得されたカメラ画像と、ステップS32において推定された瓶の位置、色およびサイズとを保存する。
ステップS37において、情報処理装置300は、瓶指標に対応する瓶情報をロボット制御装置600に出力する(指標処理部3003,3004としての処理)。瓶情報は、瓶の位置、色、及びサイズ等の情報を含んでいる。
一方、ステップS35において、情報処理装置300は、表示中の瓶指標に対する修正の指示があった場合には(S35:YES)、ステップS38に移行する。ステップS38において、情報処理装置300は、修正の指示に基づいて、瓶の位置、色、及びサイズのうちの少なくとも1つを修正する(入力解析部3007,3008としての処理)。
具体的には、情報処理装置300は、入出力装置400A,400Bのタッチスクリーン410に入力された入力情報を解析することにより、表示中の瓶指標に対する修正の指示を検出する。瓶指標に対する修正は、例えば上記図10~図16に示した瓶指標の修正等と同様である。ここでは、瓶指標に対する修正とは、瓶指標の削除及び追加も含むものとする。
ステップS39において、情報処理装置300は、修正内容を保存する(保存処理部としての処理)。具体的には、情報処理装置300は、修正された瓶の位置、色、及びサイズのうちの少なくとも1つをカメラ画像と関連付けて、記憶部3012に構築された修正保存DB(データベース)3013に保存する。
図25は、修正保存DB3013の内容例を示す図である。修正保存DB3013では、カメラ画像に瓶の位置、色、及びサイズが関連付けられており、瓶の位置、色、及びサイズのうちの少なくとも1つが修正されたものである。
例えば瓶の位置が修正された場合、情報処理装置300は、修正された瓶の位置を、カメラ画像並びに修正されていない瓶の色及びサイズと関連付けて保存する。
修正保存DB3013に保存される項目は、学習用データベース710(図20参照)に保存される項目と対応する。すなわち、カメラ画像は学習用画像に対応し、瓶の位置は位置に対応し、瓶の色及びサイズはクラスに対応する。
ステップS39の実行後、上述のステップS36およびS37が実行される。なお、ステップS36、ステップS37、ステップS38は、並行して実行されてもよい。
(3)再学習
学習済みモデルの再学習は、修正保存DB3013に保存された修正内容を用いて、上記図19に示した学習装置700により行われる。
学習装置700の取得部701は、修正保存DB3013からカメラ画像、瓶の位置、色、及びサイズを取得する。学習装置700の学習部702は、カメラ画像を入力データとし、瓶の位置、色、及びサイズを教師データとして学習済みモデルの再学習を行う。再学習の具体的な処理については、上記図21及び図22に示した処理と同様であるため、詳細な説明を省略する。
以上に説明した変形例において、学習装置700は、学習用画像LPを入力データIPDとし、学習用画像LP中の瓶の位置及び属性を教師データTRDとして、カメラ画像CP中の瓶の位置及び属性を推定するための学習済みモデルを機械学習により生成する。これによれば、認識精度の向上を図るための学習済みモデルを生成することができる。
また、変形例において、情報処理装置300は、学習装置700により生成された学習済みモデルLMDLを用いて、カメラ画像CPから瓶の位置及び属性を検出する。これによれば、学習済みモデルを用いることで、認識精度の向上を図ることができる。
また、変形例において、情報処理装置300は、画面上で加えられた瓶指標への修正指示に従って修正された瓶の位置、色、及びサイズのうちの少なくとも1つをカメラ画像CPと関連付けて保存する。これによれば、ユーザによって判断・入力された修正内容を、再学習に用いることができる。
また、変形例において、学習装置700は、情報処理装置300により保存されたカメラ画像CPを入力データとし、修正された瓶の位置、色、及びサイズのうちの少なくとも1つを教師データとして、学習済みモデルLMDLの再学習を行う。これによれば、ユーザによって判断・入力された修正内容を用いて再学習を行うので、学習済みモデルの認識精度のさらなる向上を図ることができる。
以上に説明した変形例では、画像処理によって検出される瓶の属性の例として瓶の色及びサイズを挙げたが、瓶の属性はこれらに限られるものではない。瓶の属性としては、例えば瓶のサイズ、姿勢、色、又は状態などがある。
例えば、上記実施形態のように瓶の姿勢が、瓶の属性として用いられてもよい。また、瓶が割れている又はラベルが貼られている等の瓶の状態が、瓶の属性として用いられてもよい。
なお、上記図6に示す情報処理装置300において、入力解析部3007,3008は、指示属性を検出する属性検出部の例であり、変換部3009,3010は、実物の属性を検出する属性情報検出部の例である。
以上に説明した変形例では、対象物を撮像する撮像装置500により生成されたカメラ画像CPを用いる態様について説明した。ここで、撮像装置500は、センシング部の一例であり、カメラ画像CPは、センシング部により生成される検出画像の一例である。
撮像装置500に代えて、対象物の3次元位置を表す検出画像を生成するステレオカメラやTOF(Time-of-Flight)カメラがセンシング部として用いられてもよい。この場合、カメラ画像CPだけでなく、学習用画像LPにも同様に生成された3次元位置を表す検出画像が用いられる。
また、撮像装置500に代えて、照射光を射出し、射出された照射光の反射光を利用して対象物の距離を表す検出画像を生成するLiDAR(Light Detection And Ranging)がセンシング部として用いられてもよい。この場合、カメラ画像CPだけでなく、学習用画像LPにも同様に生成された対象物の距離を表す検出画像が用いられる。
1 ロボットシステム
10 設定装置
20 画像認識システム
100,100A,100B ロボット
300 情報処理装置
400,400A,400B 入出力装置
410 タッチスクリーン
500 撮像装置
600 ロボット制御装置
3002 画像処理部(第1画像処理部、第2画像処理部、第3画像処理部)
3003,3004 指標処理部
3005,3006 画像合成部
3007,3008 入力解析部(位置検出部、サイズ検出部、姿勢検出部)
3009,3010 変換部(位置情報検出部、サイズ情報検出部、姿勢情報検出部、出力部)
W 瓶(対象物)

Claims (31)

  1. 対象物が映し出される画面上で指示される前記対象物の位置である指示位置を検出する位置検出部と、
    前記画面上で指示される前記対象物の属性である指示属性を検出する属性検出部と、
    前記指示位置に基づき、前記対象物の実物の位置を検出する位置情報検出部と、
    前記指示属性に基づき、前記対象物の実物の属性を検出する属性情報検出部と、
    前記指示位置を表す位置指標と前記対象物の実物の属性を表す属性指標とを生成し前記画面上に表示する指標処理部と、
    前記対象物の実物の位置及び属性の情報を含む対象物情報を出力する出力部とを含み、
    前記位置検出部及び前記属性検出部の少なくとも1つは、第1の処理を行い、
    前記第1の処理では、前記位置検出部は、前記画面上で加えられる前記位置指標への修正又は削除の指示を検出し、前記指示に従って前記指示位置を修正又は削除し、
    前記位置情報検出部は、前記第1の処理で修正又は削除された前記指示位置に基づき、前記対象物の実物の位置の情報を修正又は削除し、
    前記指標処理部は、前記第1の処理で修正又は削除された前記指示位置に基づき、前記位置指標を修正又は削除し、
    前記出力部は、前記第1の処理に基づき修正又は削除された前記対象物の実物の位置の情報を含む前記対象物情報を出力し、
    前記第1の処理では、前記属性検出部は、前記画面上で加えられる前記属性指標への修正又は削除の指示を検出し、前記指示に従って前記指示属性を修正又は削除し、
    前記属性情報検出部は、前記第1の処理で修正又は削除された前記指示属性に基づき、前記対象物の実物の属性の情報を修正又は削除し、
    前記指標処理部は、前記第1の処理で修正又は削除された前記指示属性に基づき、前記属性指標を修正又は削除し、
    前記出力部は、前記第1の処理に基づき修正又は削除された前記対象物の実物の属性の情報を含む前記対象物情報を出力する、
    情報処理装置。
  2. 前記属性検出部は、前記画面上で指示される前記対象物のサイズである指示サイズを検出するサイズ検出部であり、
    前記属性情報検出部は、前記指示サイズに基づき、前記対象物の実物のサイズを検出するサイズ情報検出部であり、
    前記指標処理部は、前記指示位置を表す位置指標と前記対象物の実物のサイズを表すサイズ指標とを生成し前記画面上に表示し、
    前記出力部は、前記対象物の実物の位置及びサイズの情報を含む対象物情報を出力する
    請求項1に記載の情報処理装置。
  3. 前記対象物が映し出される画像を処理することで前記画像から前記対象物を抽出し、抽出された前記対象物の実物の位置及びサイズを検出する第1画像処理部をさらに含み、
    前記指標処理部は、前記第1画像処理部によって検出された前記対象物の実物の位置及びサイズに対応する前記位置指標及び前記サイズ指標を生成し表示する
    請求項2に記載の情報処理装置。
  4. 前記第1の処理では、前記サイズ検出部は、前記画面上で加えられる前記サイズ指標への修正又は削除の指示を検出し、前記指示に従って前記指示サイズを修正又は削除し、
    前記サイズ情報検出部は、前記第1の処理で修正又は削除された前記指示サイズに基づき、前記対象物の実物のサイズの情報を修正又は削除し、
    前記指標処理部は、前記第1の処理に基づき修正又は削除された前記対象物の実物のサイズに基づき、前記サイズ指標を修正又は削除し、
    前記出力部は、前記第1の処理に基づき修正又は削除された前記対象物の実物のサイズの情報を含む前記対象物情報を出力する
    請求項2または3に記載の情報処理装置。
  5. 前記サイズ検出部は、前記画面上でなされた指示が形成する軌跡に対応するサイズを前記指示サイズとして検出する
    請求項2~のいずれか一項に記載の情報処理装置。
  6. 前記属性検出部は、前記画面上で指示される前記対象物の姿勢である指示姿勢を検出する姿勢検出部であり、
    前記属性情報検出部は、前記指示姿勢に基づき、前記対象物の実物の姿勢を検出する姿勢情報検出部であり、
    前記指標処理部は、前記指示位置を表す位置指標と前記指示姿勢を表す姿勢指標とを生成し前記画面上に表示し、
    前記出力部は、前記対象物の実物の位置及び姿勢の情報を含む対象物情報を出力する
    請求項1に記載の情報処理装置。
  7. 前記対象物が映し出される画像を処理することで、前記画像から前記対象物を抽出し且つ抽出された前記対象物の実物の位置及び姿勢を検出する第1画像処理部をさらに含み、
    前記指標処理部は、前記第1画像処理部によって検出された前記対象物の実物の位置及び姿勢に対応する前記位置指標及び前記姿勢指標を生成し表示する
    請求項に記載の情報処理装置。
  8. 前記第1の処理では、前記姿勢検出部は、前記画面上で加えられる前記姿勢指標への修正又は削除の指示を検出し、前記指示に従って前記指示姿勢を修正又は削除し、
    前記姿勢情報検出部は、前記第1の処理で修正又は削除された前記指示姿勢に基づき、前記対象物の実物の姿勢の情報を修正又は削除し、
    前記指標処理部は、前記第1の処理で修正又は削除された前記指示姿勢に基づき、前記姿勢指標を修正又は削除し、
    前記出力部は、前記第1の処理に基づき修正又は削除された前記対象物の実物の姿勢の情報を含む前記対象物情報を出力する
    請求項またはに記載の情報処理装置。
  9. 前記姿勢検出部は、前記画面上でなされた指示が形成する軌跡に対応する方向を前記指示姿勢として検出する
    請求項のいずれか一項に記載の情報処理装置。
  10. 前記画面上で指示される前記対象物のサイズである指示サイズを検出するサイズ検出部と、
    前記指示サイズに基づき、前記対象物の実物のサイズを検出するサイズ情報検出部とをさらに含み、
    前記指標処理部は、前記対象物の実物のサイズを表すサイズ指標をさらに生成し前記画面上に表示し、
    前記出力部は、前記対象物の実物のサイズの情報をさらに含む前記対象物情報を出力する
    請求項のいずれか一項に記載の情報処理装置。
  11. 前記対象物が映し出される画像を処理することで、前記画像から前記対象物を抽出し且つ抽出された前記対象物の実物のサイズを検出する第2画像処理部をさらに含み、
    前記指標処理部は、前記第2画像処理部によって検出された前記対象物の実物のサイズに対応する前記サイズ指標を生成し表示する
    請求項10に記載の情報処理装置。
  12. 前記サイズ検出部は、前記画面上で加えられる前記サイズ指標への修正又は削除の指示を検出し、前記指示に従って前記指示サイズを修正又は削除し、
    前記サイズ情報検出部は、修正又は削除された前記指示サイズに基づき、前記対象物の実物のサイズの情報を修正又は削除し、
    前記指標処理部は、修正又は削除された前記対象物の実物のサイズに基づき、前記サイズ指標を修正又は削除し、
    前記出力部は、修正又は削除された前記対象物の実物のサイズの情報を含む前記対象物情報を出力する
    請求項10または11に記載の情報処理装置。
  13. 前記サイズ検出部は、前記画面上でなされた指示が形成する軌跡に対応するサイズを前記指示サイズとして検出する
    請求項1012のいずれか一項に記載の情報処理装置。
  14. 前記出力部は、前記対象物情報を、前記対象物の実物に対する処理作業を行うロボットを制御する制御装置に出力する
    請求項13のいずれか一項に記載の情報処理装置。
  15. 前記対象物が映し出される画像を処理することで前記画像から前記対象物の実物の位置及び属性を検出する画像処理部をさらに含み、
    前記指標処理部は、前記画像処理部によって検出された前記対象物の実物の位置及び属性に対応する前記位置指標及び前記属性指標を生成し表示する
    請求項1~14のいずれか一項に記載の情報処理装置。
  16. 前記画像処理部は、学習用画像を入力データとし、前記学習用画像に含まれる対象物の位置及び属性を教師データとして機械学習により予め生成された学習済みモデルを用いて、前記画像から前記対象物の実物の位置及び属性を検出する、
    請求項15に記載の情報処理装置。
  17. 前記位置検出部によって修正された前記指示位置を前記画像と関連付けて保存する保存処理部をさらに備える、
    請求項15または16に記載の情報処理装置。
  18. 前記属性検出部によって修正された前記指示属性を前記画像と関連付けて保存する保存処理部を備える、
    請求項1517のいずれか一項に記載の情報処理装置。
  19. 前記画像は、前記対象物をセンシングするセンシング部により生成された検出画像である、
    請求項1518のいずれか一項に記載の情報処理装置。
  20. 前記対象物の属性は、前記対象物のサイズ、姿勢、色、又は状態である、
    請求項1~19のいずれか一項に記載の情報処理装置。
  21. 学習用画像並びに前記学習用画像に含まれる対象物の位置及び属性を取得する取得部と、
    前記学習用画像を入力データとし、前記対象物の位置及び属性を教師データとして、画像から対象物の位置及び属性を推定するための学習済みモデルを機械学習により生成する学習部と、
    を備え、
    前記取得部は、請求項17または18に記載の情報処理装置において保存された画像並びに修正された対象物の指示位置及び指示属性のうちの少なくとも1つを取得し、
    前記学習部は、前記画像を入力データとし、修正された前記対象物の指示位置及び指示属性のうちの少なくとも1つを教師データとして、前記学習済みモデルの再学習を行う、
    学習装置。
  22. 学習用画像並びに前記学習用画像に含まれる対象物の位置及び属性を取得することと
    前記学習用画像を入力データとし、前記対象物の位置及び属性を教師データとして、画像から対象物の位置及び属性を推定するための学習済みモデルを機械学習により生成することと
    請求項17または18に記載の情報処理装置において保存された画像並びに修正された対象物の指示位置及び指示属性のうちの少なくとも1つを取得することと、
    前記画像を入力データとし、修正された前記対象物の指示位置及び指示属性のうちの少なくとも1つを教師データとして、前記学習済みモデルの再学習を行うこととを含む、
    学習済みモデルの生成方法。
  23. 請求項1~20のいずれか一項に記載の情報処理装置と、
    前記画面を表示するディスプレイと、
    前記指示の入力を受け付け前記情報処理装置に出力する入力装置とを備える
    設定装置。
  24. 前記ディスプレイの機能と前記入力装置の機能とを含むタッチスクリーンを備える
    請求項23に記載の設定装置。
  25. 請求項23または24に記載の設定装置と、
    前記対象物の実物を撮像し、撮像された画像を前記設定装置に出力する撮像装置とを備える
    画像認識システム。
  26. 前記情報処理装置は、前記対象物の実物が撮像された画像を処理することで、前記画像から前記対象物を抽出し且つ抽出された前記対象物の実物の位置、サイズ及び姿勢を検出する第3画像処理部をさらに含み、
    前記指標処理部は、前記第3画像処理部によって検出された前記対象物の実物の位置、サイズ及び姿勢に対応する前記位置指標、サイズ指標及び姿勢指標を生成し前記ディスプレイの画面上に表示する
    請求項25に記載の画像認識システム。
  27. 請求項25または26に記載の画像認識システムと、
    前記対象物の実物に対する処理作業を行うロボットと、
    前記ロボットを制御する制御装置とを備え、
    前記制御装置は、前記情報処理装置の前記出力部から出力される前記対象物情報を用いて、前記対象物の実物を認識し、前記ロボットに前記対象物の実物を処理させる
    ロボットシステム。
  28. 画面上に映し出される対象物の実物を認識するための前記対象物の位置及びサイズの設定方法であって、
    前記画面上で指示される前記対象物の位置である指示位置を検出することと
    前記画面上で指示される前記対象物のサイズである指示サイズを検出することと
    前記指示位置に基づき、前記対象物の実物の位置を検出することと
    前記指示サイズに基づき、前記対象物の実物のサイズを検出することと
    前記指示位置を表す位置指標と前記対象物の実物のサイズを表すサイズ指標とを生成し前記画面上に表示することと
    前記対象物の実物の位置及びサイズの情報を含む対象物情報を出力することと、
    前記画面上で加えられる前記位置指標への修正又は削除の指示を検出し、前記指示に従って前記指示位置を修正又は削除すること、及び、前記画面上で加えられる前記サイズ指標への修正又は削除の指示を検出し、前記指示に従って前記指示サイズを修正又は削除することのうちの少なくとも1つを含む第1の処理を実行することと、
    前記第1の処理で修正又は削除された前記指示位置に基づき、前記対象物の実物の位置の情報を修正又は削除することと、
    前記第1の処理で修正又は削除された前記指示位置に基づき、前記位置指標を修正又は削除することと、
    前記第1の処理に基づき修正又は削除された前記対象物の実物の位置の情報を含む前記対象物情報を出力することと、
    前記第1の処理で修正又は削除された前記指示サイズに基づき、前記対象物の実物のサイズの情報を修正又は削除することと、
    前記第1の処理に基づき修正又は削除された前記対象物の実物のサイズに基づき、前記サイズ指標を修正又は削除することと、
    前記第1の処理に基づき修正又は削除された前記対象物の実物のサイズの情報を含む前記対象物情報を出力することとを含む、
    設定方法。
  29. 画面上に映し出される対象物の実物を認識するための前記対象物の位置及び姿勢の設定方法であって、
    前記画面上で指示される前記対象物の位置である指示位置を検出することと
    前記画面上で指示される前記対象物の姿勢である指示姿勢を検出することと
    前記指示位置に基づき、前記対象物の実物の位置を検出することと
    前記指示姿勢に基づき、前記対象物の実物の姿勢を検出することと
    前記指示位置を表す位置指標と前記指示姿勢を表す姿勢指標とを生成し前記画面上に表示することと
    前記対象物の実物の位置及び姿勢の情報を含む対象物情報を出力することと、
    前記画面上で加えられる前記位置指標への修正又は削除の指示を検出し、前記指示に従って前記指示位置を修正又は削除すること、及び、前記画面上で加えられる前記姿勢指標への修正又は削除の指示を検出し、前記指示に従って前記指示姿勢を修正又は削除することのうちの少なくとも1つを含む第1の処理を実行することと、
    前記第1の処理で修正又は削除された前記指示位置に基づき、前記対象物の実物の位置の情報を修正又は削除することと、
    前記第1の処理で修正又は削除された前記指示位置に基づき、前記位置指標を修正又は削除することと、
    前記第1の処理に基づき修正又は削除された前記対象物の実物の位置の情報を含む前記対象物情報を出力することと、
    前記第1の処理で修正又は削除された前記指示姿勢に基づき、前記対象物の実物の姿勢の情報を修正又は削除することと、
    前記第1の処理で修正又は削除された前記指示姿勢に基づき、前記姿勢指標を修正又は削除することと、
    前記第1の処理に基づき修正又は削除された前記対象物の実物の姿勢の情報を含む前記対象物情報を出力することとを含む、
    設定方法。
  30. 前記画面上で指示される前記対象物のサイズである指示サイズを検出することと
    前記指示サイズに基づき、前記対象物の実物のサイズを検出することと
    前記対象物の実物のサイズを表すサイズ指標をさらに生成し前記画面上に表示することと
    前記対象物の実物のサイズの情報をさらに含む前記対象物情報を出力することとをさらに含む、
    請求項29に記載の設定方法。
  31. 対象物が映し出される画面上で指示される前記対象物の位置である指示位置を検出する位置検出部と、
    前記画面上で指示される前記対象物の属性である指示属性を検出する属性検出部と、
    前記指示位置に基づき、前記対象物の実物の位置を検出する位置情報検出部と、
    前記指示属性に基づき、前記対象物の実物の属性を検出する属性情報検出部と、
    前記指示位置を表す位置指標と前記対象物の実物の属性を表す属性指標とを生成し前記画面上に表示する指標処理部と、
    前記対象物の実物の位置及び属性の情報を含む対象物情報を出力する出力部と、
    前記対象物が映し出される画像を処理することで前記画像から前記対象物の実物の位置及び属性を検出する画像処理部と、
    保存処理部とを含み、
    前記指標処理部は、前記画像処理部によって検出された前記対象物の実物の位置及び属性に対応する前記位置指標及び前記属性指標を生成し表示し、
    前記位置検出部及び前記属性検出部の少なくとも1つは、第2の処理を行い、
    前記第2の処理では、前記位置検出部は、前記画面上で加えられる前記位置指標への修正の指示を検出し、前記指示に従って前記指示位置を修正し、
    前記保存処理部は、前記第2の処理で修正された前記指示位置を前記画像と関連付けて保存し、
    前記第2の処理では、前記属性検出部は、前記画面上で加えられる前記属性指標への修正の指示を検出し、前記指示に従って前記指示属性を修正し、
    前記保存処理部は、前記第2の処理で修正された前記指示属性を前記画像と関連付けて保存する、
    情報処理装置。
JP2021542968A 2019-08-26 2020-08-26 情報処理装置、設定装置、画像認識システム、ロボットシステム、設定方法、学習装置、及び学習済みモデルの生成方法 Active JP7261306B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019154103 2019-08-26
JP2019154103 2019-08-26
PCT/JP2020/032207 WO2021039850A1 (ja) 2019-08-26 2020-08-26 情報処理装置、設定装置、画像認識システム、ロボットシステム、設定方法、学習装置、及び学習済みモデルの生成方法

Publications (2)

Publication Number Publication Date
JPWO2021039850A1 JPWO2021039850A1 (ja) 2021-03-04
JP7261306B2 true JP7261306B2 (ja) 2023-04-19

Family

ID=74684794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021542968A Active JP7261306B2 (ja) 2019-08-26 2020-08-26 情報処理装置、設定装置、画像認識システム、ロボットシステム、設定方法、学習装置、及び学習済みモデルの生成方法

Country Status (5)

Country Link
US (1) US20220292708A1 (ja)
EP (1) EP4023398A4 (ja)
JP (1) JP7261306B2 (ja)
CN (1) CN114286739B (ja)
WO (1) WO2021039850A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11922368B1 (en) * 2020-12-11 2024-03-05 Amazon Technologies, Inc. Object classification exception handling via machine learning
JPWO2023022237A1 (ja) * 2021-08-19 2023-02-23
WO2023067656A1 (ja) * 2021-10-18 2023-04-27 株式会社Pfu 物体処理装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013173209A (ja) 2012-02-27 2013-09-05 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
JP2019046095A (ja) 2017-08-31 2019-03-22 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008296330A (ja) * 2007-05-31 2008-12-11 Fanuc Ltd ロボットシミュレーション装置
JP2009241247A (ja) 2008-03-10 2009-10-22 Kyokko Denki Kk ステレオ画像型検出移動装置
EP2196881A1 (de) * 2008-12-04 2010-06-16 Siemens Aktiengesellschaft Bedieneinrichtung zur Bedienung einer Maschine aus der Automatisierungstechnik
US20120182296A1 (en) * 2009-09-23 2012-07-19 Han Dingnan Method and interface for man-machine interaction
US8094941B1 (en) * 2011-06-13 2012-01-10 Google Inc. Character recognition for overlapping textual user input
CN105518555B (zh) * 2014-07-30 2017-11-03 深圳市大疆创新科技有限公司 目标追踪系统及方法
RU2610587C2 (ru) * 2014-09-16 2017-02-13 Общество С Ограниченной Ответственностью "Яндекс" Способ пространственного хранения объекта посредством гибкой иерархической структуры и постоянный носитель информации
KR20160044194A (ko) * 2014-10-15 2016-04-25 주식회사 인프라웨어 터치 스크린을 구비하는 전자기기 상의 복수객체에서 객체를 선택하는 방법 및 장치
KR20170136750A (ko) * 2016-06-02 2017-12-12 삼성전자주식회사 전자 장치 및 그의 동작 방법
EP3557521B1 (en) * 2016-12-19 2024-09-25 Kabushiki Kaisha Yaskawa Denki Industrial device image recognition processor and controller
JP6542824B2 (ja) * 2017-03-13 2019-07-10 ファナック株式会社 入力画像から検出した対象物の像の尤度を計算する画像処理装置および画像処理方法
JP6549655B2 (ja) * 2017-08-03 2019-07-24 ファナック株式会社 物品搬送装置
JP6687591B2 (ja) * 2017-12-26 2020-04-22 ファナック株式会社 物品搬送装置、ロボットシステムおよび物品搬送方法
JP7108861B2 (ja) * 2018-01-31 2022-07-29 パナソニックIpマネジメント株式会社 掃除機の制御方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013173209A (ja) 2012-02-27 2013-09-05 Sony Corp ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム
JP2019046095A (ja) 2017-08-31 2019-03-22 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム

Also Published As

Publication number Publication date
US20220292708A1 (en) 2022-09-15
WO2021039850A1 (ja) 2021-03-04
CN114286739B (zh) 2024-04-12
JPWO2021039850A1 (ja) 2021-03-04
EP4023398A4 (en) 2023-09-13
CN114286739A (zh) 2022-04-05
EP4023398A1 (en) 2022-07-06

Similar Documents

Publication Publication Date Title
JP7261306B2 (ja) 情報処理装置、設定装置、画像認識システム、ロボットシステム、設定方法、学習装置、及び学習済みモデルの生成方法
CN112091970B (zh) 具有增强的扫描机制的机器人系统
Nerakae et al. Using machine vision for flexible automatic assembly system
JP5897624B2 (ja) ワークの取出工程をシミュレーションするロボットシミュレーション装置
CN110580725A (zh) 一种基于rgb-d相机的箱体分拣方法及系统
JP5429614B2 (ja) 箱状ワーク認識装置および方法
CN108961144B (zh) 图像处理系统
US11654571B2 (en) Three-dimensional data generation device and robot control system
JP2012101320A (ja) 画像生成装置、画像生成方法、およびプログラム
US20160005161A1 (en) Robot system
JP2019192022A (ja) 画像処理装置、画像処理方法及びプログラム
WO2019059343A1 (ja) ワーク情報処理装置およびワークの認識方法
US20230044420A1 (en) Systems and methods for object detection
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
WO2023092519A1 (zh) 抓取控制方法、装置、电子设备和存储介质
US11478922B2 (en) Robot teaching device and robot system
Pan et al. Manipulator package sorting and placing system based on computer vision
Sharma et al. Deep convolutional neural network design approach for 3D object detection for robotic grasping
Natarajan et al. Robust stereo-vision based 3D modelling of real-world objects for assistive robotic applications
CN114187312A (zh) 目标物的抓取方法、装置、系统、存储介质及设备
Fan et al. An automatic robot unstacking system based on binocular stereo vision
KR102452315B1 (ko) 딥러닝과 마커를 이용한 비전인식을 통한 로봇 제어장치 및 그 방법
JP7481205B2 (ja) ロボットシステム、ロボットの制御方法、情報処理装置、コンピュータプログラム、学習装置、及び学習済みモデルの生成方法
CN116175542A (zh) 抓取控制方法、装置、电子设备和存储介质
CN116188559A (zh) 图像数据处理方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230407

R150 Certificate of patent or registration of utility model

Ref document number: 7261306

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150