JP2023003602A - 制御システム、駆動装置、入力装置および制御プログラム - Google Patents

制御システム、駆動装置、入力装置および制御プログラム Download PDF

Info

Publication number
JP2023003602A
JP2023003602A JP2021104772A JP2021104772A JP2023003602A JP 2023003602 A JP2023003602 A JP 2023003602A JP 2021104772 A JP2021104772 A JP 2021104772A JP 2021104772 A JP2021104772 A JP 2021104772A JP 2023003602 A JP2023003602 A JP 2023003602A
Authority
JP
Japan
Prior art keywords
target object
control
image
input
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021104772A
Other languages
English (en)
Inventor
翔太 樋口
Shota Higuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2021104772A priority Critical patent/JP2023003602A/ja
Publication of JP2023003602A publication Critical patent/JP2023003602A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】工場ラインで用いられる機器の制御を自動化できる制御システムを提供する。【解決手段】検出装置10は、対象物体の画像を撮像する。制御装置40は、撮像された対象物体の画像から、その対象物体の状態を判定する状態判定部46と、判定された対象物体の状態に応じて定義された制御内容に応じて、または、物体の状態を入力とし制御内容を出力とする制御モデルに検出された対象物体の状態を入力して、駆動装置20の制御内容を決定する制御内容決定部47と、決定された制御内容に基づいて、駆動装置20の制御を行う制御部48とを含む。【選択図】図1

Description

本発明は、ロボットの動作を制御する制御システム、並びに、その制御システムで用いられる駆動装置、入力装置、および、制御プログラムに関する。
近年、人手不足や作業の効率化を図るため、工場ラインの作業を低コストで自動化する方法が各種提案されている。例えば、特許文献1には、構成を簡素化したロボットシステムが記載されている。特許文献1に記載されたシステムでは、携帯情報端末が製品の製造情報を表示し、教示モードで教示作業に用いた携帯情報端末を、再生モードでは製品の製造情報を表示する表示器として用いる。これにより、ロボットシステムの構成を簡素化して、製造コストも低減させる。
なお、特許文献2には、産業用ロボットなどに用いられる多関節ロボットアーム機構が記載されている。特許文献2に記載された機構では、ステッピングモータのドライブシャフトが所定の角度を回転する毎にエンコーダパルスを出力し、エンコーダパルスのカウントに応じたアーム部の長さが、そのアーム部の脱落防止のために設定された閾値に達したとき、静止トルクを発生させるためにモータドライバを制御する。
特開2019-209401号公報 特開2016-101647号公報
一方、特許文献1に記載されたシステムの動作指令は、携帯端末からの教示に依存するものである。そのため、例えば、工場ラインにおいて、作業対象の物体を認識し、物体の状態に応じたロボットの制御を行うためには、人手を介する必要がある。そのため、制御に要する人員の数を抑制しつつ、工場ラインで用いられる機器の制御を自動化できることが好ましい。
そこで、本発明では、工場ラインで用いられる機器の制御を自動化できる制御システム、並びに、その制御システムで用いられる駆動装置、入力装置、および、制御プログラムを提供することを目的とする。
本発明による制御システムは、対象物体を検出する検出装置と、対象物体に対する処理を行う駆動装置と、検出装置により検出された対象物体の状態に基づいて駆動装置の制御を行う制御装置とを備え、検出装置が、対象物体を撮像するカメラで実現され、その対象物体の画像を撮像し、制御装置が、撮像された対象物体の画像から、その対象物体の状態を判定する状態判定部と、判定された対象物体の状態に応じて定義された制御内容に応じて、または、物体の状態を入力とし制御内容を出力とする制御モデルに検出された対象物体の状態を入力して、駆動装置の制御内容を決定する制御内容決定部と、決定された制御内容に基づいて、駆動装置の制御を行う制御部とを含むことを特徴とする。
本発明による駆動装置は、上記制御システムによって駆動される駆動装置であって、1つ以上のモータと、そのモータの動作内容に応じた出力をするセンサとを含むことを特徴とする。
本発明による入力装置は、上記制御システムが備える入力装置であって、撮像された対象物体の画像に対する正解ラベルの入力、撮像された画像内のマーカを基準とした位置および角度の指定、および、駆動装置の制御パラメータの少なくとも一つの受け付けることを特徴とする。
本発明による制御プログラムは、コンピュータに、対象物体の画像を撮像するカメラで実現される検出装置により検出されたその対象物体の状態に基づいて、その対象物体に対する処理を行う制御処理を実行させ、制御処理で、撮像された対象物体の画像から、その対象物体の状態を判定する状態判定処理、判定された対象物体の状態に応じて定義された制御内容に応じて、または、物体の状態を入力とし制御内容を出力とする制御モデルに検出された対象物体の状態を入力して、駆動装置の制御内容を決定する制御内容決定処理、および、決定された制御内容に基づいて、駆動装置の制御を行う制御処理を実行させることを特徴とする。
本発明によれば、工場ラインで用いられる機器の制御を自動化できる。
本発明による制御システムの一実施形態の構成例を示すブロック図である。 制御内容を登録する処理の例を示す説明図である。 一覧表示された対象物体の画像の例を示す説明図である。 次元削減と範囲指定によるラベル指定の画面例を示す説明図である。 モデルの学習に用いるトレーニングデータを生成するための基準データを生成する動作例を示すフローチャートである。 モデルの学習に用いるトレーニングデータを生成する動作例を示すフローチャートである。 トレーニングデータの生成時に用いられる画面例を示す説明図である。 パラメータを指定する画面例を示す説明図である。 制御システムの動作例を示すフローチャートである。 制御システムの具体的な構成例を示す説明図である。 駆動装置の具体的な構成例を示す説明図である。 ロボットの外観例を示す説明図である。
以下、本発明の実施形態を図面を参照して説明する。以下の説明では、本発明による制御システムが、工場ラインの作業(例えば、繰り返し作業)を自動化するロボットシステムとして実現される場合を例示する。例えば、本実施形態の制御システムは、所定の位置に配置される対象物体や、コンベヤ等で運搬される対象物体を認識し、その対象物体に対して作業を行うロボットの動作を制御する。
図1は、本発明による制御システムの一実施形態の構成例を示すブロック図である。本実施形態の制御システム1は、検出装置10と、駆動装置20と、入出力装置30と、制御装置40と、学習装置50とを備えている。なお、図1では、検出装置10、駆動装置20、入出力装置30、制御装置40、および、学習装置50が、それぞれ別々の装置で実現されている場合を例示する。ただし、検出装置10、駆動装置20、入出力装置30、制御装置40、および、学習装置50の一部または全部が一体となった装置で実現されてもよい。また、図1に例示する装置以外の周辺装置が制御システム1に含まれていてもよい。
検出装置10は、対象物体を検出する装置である。検出装置10は、対象物体を検出する内容に応じて設置される。検出装置10は、例えば、対象物体を撮像するカメラで実現されてもよい。この場合、検出装置10は、対象物体の画像を撮像する。また、例えば、コンベヤ上の対象物体の通過を検出する場合、検出装置10は、例えば、電光センサにより実現されてもよい。この場合、具体的には、発光素子および受光素子を含む投受光器が出力した光に対する反射光を検出することで、物体が検出される。
ただし、電光センサでは、物体の厳密なコンベヤ上の位置や、物体の姿勢を検出することは困難である。そのため、電光センサを用いる場合には、予め物体を整列させたり、検出装置10としてカメラを使用したりすることで、物体の位置や姿勢の情報を取得できる。
さらに、検出装置10が、ToF(Time Of Flight)センサで実現されてもよい。具体的には、検出装置10としてToFセンサを用いることで、対象物体との距離を検出してもよい。3個以上のセンサを利用することで、例えば、コンベヤ上の物体の位置や姿勢を推定できるため、検出装置10としてカメラを用いるよりも、低コストかつ簡易に装置を実装することが可能になる。
また、検出装置10は、上述する複数の装置により実現されていてもよい。すなわち、検出装置10が、例えば、カメラとセンサ(電光センサや、ToFセンサ)により実現されていてもよい。
駆動装置20は、後述する制御装置40の制御に基づいて駆動することにより、対象物体に対する処理を行う装置である。駆動装置20は、例えば、吸引パッドやグリッパが接続されたロボットアームにより実現される。なお、駆動装置20の態様はロボットアームに限定されず、また、駆動対象の装置も1つに限定されない。
また、本実施形態の駆動装置20は、駆動させるための1つ以上のモータ(図示せず)と、そのモータの動作内容に応じた出力をするセンサ(図示せず)とを含んでいてもよい。モータの例として、例えば、ステッピングモータなどが挙げられる。また、センサの例として、磁気エンコーダなどが挙げられる。なお、駆動装置20の具体的な構成例については後述される。
入出力装置30は、ユーザからの入力を受け付け、また、制御装置40が出力する内容を表示する。例えば、検出装置10がカメラで実現されている場合、入出力装置30は、そのカメラで撮像された対象物体の画像を表示してもよく、その画像に対するユーザの入力を受け付けてもよい。なお、制御装置40と協働した入出力装置30の動作については後述される。
なお、入出力装置30の態様は任意である。入出力装置30は、入力装置と出力装置とが別々の装置で実現されていてもよい。出力装置の具体的態様として、例えば、ディスプレイなどの表示装置や、プロジェクタなどの投影装置、プリンタなどの印刷装置が挙げられる。また、入出力装置30は、例えば、制御装置40と一体になったタッチパネルにより実現されていてもよく、タブレット端末などの外部装置のディスプレイにより実現されていてもよい。入出力装置30が制御装置40と一体になって実現されることで、省スペース化を実現できる。また、入出力装置30が外部装置で実現される場合、作業員が立ち入れないような場所に設置された装置を遠隔で操作することも可能になる。
また、検出装置10がカメラにより実現されている場合、入出力装置30は、カメラで撮影された映像を表示してもよい。さらに、入出力装置30がタッチパネルにより実現されている場合、入出力装置30は、カメラで撮影した映像に対するユーザの操作を検出して、制御装置40にその操作を示す情報を通知してもよい。
制御装置40は、駆動装置20の動作を制御する装置である。具体的には、制御装置40は、検出装置10によって検出された対象物体の状態に基づいて、駆動装置20の制御を行う。本実施形態の制御装置40は、記憶部41と、制御内容登録部42と、画像データ生成部43と、アノテーション処理部44と、駆動制御部45とを含む。
記憶部41は、制御装置40が処理を行うために必要な各種情報を記憶する。例えば、検出装置10がカメラにより実現されている場合、記憶部41は、そのカメラのパラメータを記憶してもよく、カメラで撮影した対象物体の画像を記憶してもよい。また、記憶部41は、駆動装置20の制御に用いられる学習済みモデルを記憶してもよい。
また、記憶部41は、対象物体の状態に応じた駆動装置20の制御内容を記憶してもよい。この制御内容は、後述する制御内容登録部42によって、対象物の個々の状態に応じて定義されたものであってもよく、上述する学習済みモデルによって特定されるものであってもよい。
制御内容登録部42は、ユーザの指示に基づいて、対象物体の状態に応じた駆動装置20の制御内容を記憶部41に登録する。制御内容登録部42は、例えば、対象物体の状態に応じて駆動装置20を制御するための制御コードの入力を受け付け、受け付けた制御コードを制御内容として登録してもよい。
また、制御内容登録部42は、入出力装置30に表示された画像に対して、ユーザが直接的に、または、間接的に駆動装置20の制御内容を入力することにより、対象物体の状態に応じた制御内容を登録してもよい。制御内容登録部42は、例えば、ユーザが入出力装置30の画面に表示された画像上で駆動装置20の動作の終点位置を指定した入力を受け付けることで、制御する動作を自動的に登録してもよい。
図2は、制御内容を登録する処理の例を示す説明図である。図2に示す例では、入出力装置30が、検出装置10であるカメラにより撮像された映像を操作画面U01に表示していることを示す。制御内容登録部42は、撮像された映像をもとに、基準になるマーカの位置や角度、カメラからの距離を取得する(ステップS101)。
その後、制御内容登録部42は、ユーザから入出力装置30の操作画面(以下、UI:User Interfaceと記すこともある。)を介して、マーカを基準とした任意の移動先の位置および角度の指定を受け付ける(ステップS102)。なお、マーカとして、QRコード(登録商標)や、ArUcoマーカが用いられてもよい。また、形状が一定である容器などがマーカとして利用されてもよい。図2に示す例では、入出力装置30が移動先U02および角度の指定を受け付けたことを示す。なお、制御内容登録部42は、操作画面を介した指定以外に、移動させた対象物体に対する検出装置10の検出により、移動先の位置および角度を特定してもよい。この場合、制御内容登録部42は、UIを介したユーザによる確認の結果を受け付けて、制御内容を登録してもよい(ステップS103)。
入出力装置30を介して入力された駆動装置20の制御内容(具体的な動作)は、センサ等で検知された対象物体の実際の位置や姿勢と、カメラで撮影された対象物体の画像上の座標位置との関係に応じて計算することが可能である。なお、画像を撮像したカメラの位置と対象物体との位置関係に基づいて、指定された画像の座標位置を計算する方法は広く知られているため、ここでは詳細な説明は省略する。
画像データ生成部43は、対象物体の画像を次元削減した画像データを生成する。具体的には、画像データ生成部43は、撮像された対象物体の画像を主成分解析により次元削減した画像データを生成する。なお、対象物体の画像は、検出装置10によって取得された画像であってもよく、予め撮像された画像であってもよい。そして、画像データ生成部43は、対象物体の画像を入出力装置に表示させる。具体的には、入出力装置30は、画面上に次元削減(主成分解析)により要約された主成分を次元軸とする二次元の座標平面を定義し、生成された各画像データの主成分が示す座標平面上の座標位置に、各画像データを生成する元になった対象物体の画像をそれぞれ表示する。なお、上記例では、画像データ生成部43が二次元の座標平面に対象物体の画像を表示する場合を例示したが、次元数は二次元に限定されない。画像データ生成部43は、一次元の座標軸に画像を表示してもよいし、三次元の座標空間に画像を表示してもよい。
そして、入出力装置30は、ユーザによる1以上の画像の指定の入力を受け付ける。入出力装置30は、特定の画像を指定した入力を受け付けてもよく、1以上の画像を含む範囲の指定の入力を受け付けてもよい。併せて、入出力装置30は、指定された画像に対する正解ラベルの入力を受け付ける。
アノテーション処理部44は、ユーザの入力に基づき、指定された対象物体の画像に正解ラベルをラベル付けしたトレーニングデータを生成する。アノテーション処理部44は、生成したトレーニングデータを記憶部41に登録する。なお、アノテーション処理部44は、生成したトレーニングデータを学習装置50(より具体的には、記憶部51)に入力してもよい。
図3は、一覧表示された対象物体の画像の例を示す説明図である。図3に例示する画面は、複数の対象製品の画像に対して主成分解析を行った結果に応じて、それらの画像を一覧表示した例を示す。例えば、不良品を示す画像は、主成分解析を行うことで、類似するグループに分類することが可能である。入出力装置30は、例えば、図3に例示する画面に表示された画像の範囲R1の選択を受け付け、選択された範囲に含まれる画像の入力を受け付ける。
例えば、目視による点検を自動化しようとしたときに、熟練者がその点検の判断基準を言語化することは容易ではない。一方で、熟練者以外が画像アノテーションを行おうとしても、理想的な分類器を生成できない恐れもある。しかし、分類器の推論モデルを作成するために、熟練者が大量のデータを一つ一つ確認してアノテーションを行うことは現実的ではない。
図3に示す例では、不良品を示す対象物体の画像が、画面の上部にグループ化されていることを示す。このような画面を熟練者が点検すれば、画像アノテーションを、複数の対象に対して同時に、かつ、直感的に行うことが可能になる。なお、所望の結果が得られなかった場合、画像データ生成部43は、別の成分に着目した主成分解析により画像データを生成すればよい。
図4は、次元削減と範囲指定によるラベル指定の画面例(UI例)を示す説明図である。図4に示す例では、入出力装置30が画面U30の画像表示領域U31に次元削減(主成分解析)により要約された主成分を次元軸とする二次元の座標平面を定義し、生成された各画像データの主成分が示す座標平面上の座標位置に、各画像データを生成する元になった対象物体の画像をそれぞれ表示したことを示す。
このとき、入出力装置30は、例えば、ラベル選択ボタンU32を用いた任意の正解ラベルの選択、および、表示された画像データに対して特定の画像の範囲を指定した範囲指定U33の入力をユーザから受け付けてもよい。また、入出力装置30は、範囲指定U33で選択された画像データに対して付与する正解ラベルを、ボタンU34を介した指示により追加してもよい。
さらに、入出力装置30は、ユーザによる画面30へのピンチおよびズームのジェスチャ(操作)を検知することで、画像表示領域U31のズームインまたはズームアウトを行ってもよいし、上下左右にスライドするジェスチャ(操作)を検知することで画像表示領域U31を変更してもよい。
駆動制御部45は、検知された対象物体の状態を判断して、駆動装置20を制御する内容を決定する。駆動制御部45は、状態判定部46と、制御内容決定部47と、制御部48とを有する。
状態判定部46は、撮像された対象物体の画像から、その対象物体の状態を判定する。状態判定部46は、例えば、物体の状態を判定するモデル(具体的には、後述するパターンマッチングモデル、オブジェクトディテクションモデル、セグメンテーションモデルや異常検知モデル)を用いて、対象物体の状態を判断してもよい。また、状態判定部46は、予め準備した模範画像との単純な一致度合いに基づいて、対象物体の状態を判断してもよい。
制御内容決定部47は、判定された対象物体の状態に基づいて、駆動装置20の制御内容を決定する。具体的には、制御内容決定部47は、対象物体の状態(例えば、モデルの出力結果)に応じた制御内容を予め定義しておき、制御内容決定部47は、判定された対象物体の状態から、対応する制御内容を決定してもよい。制御内容決定部47は、制御内容登録部42によって登録された内容を用いてもよい。例えば、不良品と検知された対象物体を取り除く動作制御や、他の機械とロボットの位置から位置がずれていると判断される対象物体の位置を直す動作制御などが挙げられる。
他にも、物体の状態を入力とし制御内容を出力とするモデル制御モデルを予め学習しておき、制御内容決定部47は、判定された対象物体の状態をその制御モデルに入力して、駆動装置20の制御内容を決定してもよい。例えば、野菜の種類を検知して、その野菜の種類に応じたラベルを添付する制御などが考えられる。
以下、本実施形態の状態判定部46が対象物体の状態を判定するモデルについて、具体的に説明する。対象物体の状態を判定するモデルとして、対象物体のパターンマッチングを行うモデル、オブジェクトディテクションを行うモデル、セグメンテーションを行うモデルや、対象物体の異常検知を行うモデルなどが挙げられる。以下、本実施形態の制御システム1を利用してモデルを生成する方法を例示する。
図5は、モデルの学習に用いるトレーニングデータを生成するための基準データを生成する動作例を示すフローチャートである。まず、入出力装置30がUIを介して、ユーザから、対象物体の名目、または、ラベルの入力を受け付ける(ステップS111)。ラベルの例として、例えば、異常あり又はなしを示すラベルが挙げられる。その後、ユーザにより、制御システム1の検出装置10(具体的には、カメラ)に写るように対象物体が配置される、または、コンベアにより対象物体が流されると(ステップS112)、検出装置10は、自動、または、UIを介したユーザからの指示に応じて、対象物体のカラー画像およびデプス画像を撮像する(ステップS113)。
予め基準方向に対象物体が配置された場合や、基準になる方向の指定をUIを介してユーザから入出力装置30が受け付けると(ステップS114)、入出力装置30は、その結果をUIに表示する(ステップS115)。ユーザに想定外の結果と判断された場合、入出力装置30は、UIを介した補正を受け付けてもよい。なお、ステップS111からステップS113の処理で得られた基準データが、後述するパターンマッチングのモデルとして利用されてもよい。
図6は、モデルの学習に用いるトレーニングデータを生成する動作例を示すフローチャートである。対象物体のカラー画像およびデプス画像を撮像するまでの処理は、図5に例示するステップS111からステップS113までの処理と同様である。
制御装置40の画像データ生成部43は、背景色と異なる色やデプス情報に応じて、セグメント情報を生成してもよい(ステップS124)。なお、画像データ生成部43は、パターンマッチングにより対象物体の角度を取得し、規準の方向に合わせて画像のトリミングを行ってもよい(ステップS125)。入出力装置30は、その結果をUIに表示する(ステップS126)。ユーザに想定外の結果と判断された場合、入出力装置30は、UIを介した補正を受け付けてもよいし、後に確認するための目印としてフラグを設定してもよい。
図7は、トレーニングデータの生成時に用いられる画面例を示す説明図である。画面U10は、撮像された画像を確認する画面の例である。入出力装置30は、画面U10の画像表示領域U11に画像を表示し、後に確認するためのフラグの設定指示をボタンU12を介して受け付ける。また、入出力装置30は、ボタンU13を介した指示により、画像の修正処理を開始する。また、入出力装置30は、画面U20に例示するように、画像を一覧表示し、修正する画像の指定を受け付けて、画像の修正処理を開始してもよい。なお、画面を介した画像の修正処理の方法は広く知られているため、ここでは詳細な説明を省略する。
制御部48は、決定された制御内容に基づいて、駆動装置20の制御を行う。具体的には、制御部48は、決定された制御内容に応じた制御信号を駆動装置20に送信し、実際の制御処理を行う。制御部48は、例えば、アノテーション処理部44により生成された学習データを用いて学習されたモデルを用いることで決定された制御内容に基づいて、駆動装置20の制御を行ってもよい。
制御内容登録部42と、画像データ生成部43と、アノテーション処理部44と、駆動制御部45(より具体的には、状態判定部46と、制御内容決定部47と、制御部48)とは、プログラム(制御プログラム)に従って動作するコンピュータのプロセッサ(例えば、CPU(Central Processing Unit )、GPU(Graphics Processing Unit))によって実現される。
例えば、プログラムは、制御装置40が備える記憶部41に記憶され、プロセッサは、そのプログラムを読み込み、プログラムに従って、制御内容登録部42、画像データ生成部43、アノテーション処理部44、および、駆動制御部45(より具体的には、状態判定部46と、制御内容決定部47と、制御部48)として動作してもよい。また、制御装置40の機能がSaaS(Software as a Service )形式で提供されてもよい。
また、制御内容登録部42と、画像データ生成部43と、アノテーション処理部44と、駆動制御部45(より具体的には、状態判定部46と、制御内容決定部47と、制御部48)とは、それぞれが専用のハードウェアで実現されていてもよい。また、各装置の各構成要素の一部又は全部は、汎用または専用の回路(circuitry )、プロセッサ等やこれらの組合せによって実現されもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組合せによって実現されてもよい。
また、制御装置40の各構成要素の一部又は全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。
学習装置50は、記憶部51と、学習処理部52とを含む。記憶部51は、学習装置50が処理を行うために必要な各種情報を記憶する。本実施形態の記憶部51は、対象物体の状態を判断するためのモデルの学習に用いられるトレーニングデータを記憶する。記憶部51は、学習に用いる各種パラメータ(ハイパーパラメータ)や、モデルの構造等を記憶していてもよい。また、記憶部51は、外部記憶部(図示せず)から転送されたトレーニングデータやモデルを記憶してもよい。また、学習装置50が、記憶部51に記憶されたトレーニングデータやモデルを外部記憶部(図示せず)に転送してもよい。
学習処理部52は、対象物体の画像に正解ラベルが対応付けられたトレーニングデータを用いて、上記モデルを学習する。学習処理部52は、例えば、アノテーション処理部44によって生成されたトレーニングデータを用いて、対象物体の良品または不良品を判別する判別モデルを学習してもよく、対象物品の種類を分類する分類モデルを学習してもよい。なお、モデルの態様は、画像に対応付けられた正解ラベルや、生成するモデルの構造等により予め決定される。
なお、学習処理部52は、アノテーション処理部44以外が生成したトレーニングデータを用いてもよい。さらに、学習処理部52は、取得されたトレーニングデータを用いて、上述するパターンマッチングモデル、オブジェクトディテクションモデル、セグメンテーションを行うモデルや、対象物体の異常検知を行うモデルを学習してもよい。トレーニングデータを用いて学習する方法は広く知られているため、学習処理部52は、予め定められた任意の学習方法を用いてモデルを学習すればよい。
図8は、パラメータを指定する画面例を示す説明図である。図8に例示する画面U40は、学習されたモデルの正答率や正常率などの閾値パラメータを指定するときに用いられる画面の例である。入出力装置30は、学習モデルによって推論された正答率や正常率の順に整列された画像を画面U40の画像表示領域U41に表示し、入力インターフェースU42を介した指示により、閾値パラメータを指定する。
図8に示す例では、入力インターフェースU42としてスライダーバーが利用され、スライダーバーの位置に対応する画像表示領域U41に表示された画像の正答率や正常率が、閾値パラメータとして指定される。また、入出力装置30は、図8に例示するように、指定された閾値パラメータをパラメータ表示領域U43に表示してもよい。
このように、本実施形態の入出力装置30が、撮像された対象物体の画像に対する正解ラベルの入力や、撮像された画像内のマーカを基準とした位置および角度の指定、駆動装置20の制御パラメータの指定を受け付けてもよい。なお、入出力装置30は、これらの情報の少なくとも1つの指定や入力を受け付けてもよく、全ての指定や入力を受け付けてもよい。
次に、本実施形態の制御システムの動作を説明する。図9は、本実施形態の制御システムの動作例を示すフローチャートである。検出装置10(より具体的には、カメラ)は、対象物体の画像を撮像する(ステップS11)。状態判定部46は、撮像された対象物体の画像から、その対象物体の状態を判定する(ステップS12)。制御内容決定部47は、定義された制御内容に応じて、または、制御モデルに検出された対象物体の状態を入力して、駆動装置20の制御内容を決定する(ステップS13)。そして、制御部48は、決定された制御内容に基づいて、駆動装置20の制御を行う(ステップS14)。
以下、本実施形態の具体的構成を説明する。図10は、本実施形態の制御システムの具体的な構成例を示す説明図である。図10に例示する制御システム2は、カメラ110と、光学センサ120と、自動化ユニット200と、携帯情報端末300と、コントローラ部410と、メインコンピュータ420とを備えている。なお、図10に示す一方向性の矢印は、情報の流れの方向を端的に示したものであり、双方向性を排除するものではない。
カメラ110および光学センサ120は、上記実施形態の検出装置10に対応する。
自動化ユニット200は、ロボットアーム201および周辺装置202を含む。また、コントローラ部410は、ロボット制御部411と、周辺装置制御部412と、コントローラ通信部413とを含む。自動化ユニット200と、コントローラ部410とは通信回線を介して相互に接続される。また、ロボット制御部411は、ロボットアーム201を制御し、周辺装置制御部412は、周辺装置202を制御する。自動化ユニット200は、上記実施形態の駆動装置20に対応する。また、コントローラ部410は、上記実施形態の制御装置40の一部に対応する。
携帯情報端末300は、入力部302および表示部303を有するタッチディスプレイ301と、端末制御部304と、端末通信部305とを含む。携帯情報端末300は、上記実施形態の入出力装置30に対応する。
メインコンピュータ420は、動作計画部422および表示制御部423を有する外部装置動作計画部421と、コンピュータ通信部424と、画像解析部426およびセンサデータ解析部427を有する外部情報解析部425と、記憶部428とを含む。コンピュータ通信部424は、携帯情報端末300の端末通信部305およびコントローラ部410のコントローラ通信部413と接続され、ローカルネットワーク51、グローバルネットワーク52および外部記憶部53との通信を行う。メインコンピュータ420は、上記実施形態の制御装置40の一部に対応する。
図10に例示するように、制御システム2は、個々の装置に機能を分割する。よって、操作画面や簡単なカスタムパーツの取り付けにより、タスクに応じて最適なインテグレーションを行うことが可能になる。
図11は、駆動装置20の具体的な構成例を示す説明図である。図11に例示する構成は、駆動装置20としてロボットアーム60と、ロボットハンド65および吸引パッド66とを想定した例である。図11に例示するロボットアーム60は、ステッピングモータ61および磁気エンコーダ62の複数の組み合わせと、ステッピングモータ61およびリミットスイッチ63の組み合わせとを含む。
ただし、ステッピングモータ61は、ステッピングモータに限られるものではなく、DC(Direct current)モータやAC(Alternating current )モータ等でも良い。また、磁気エンコーダ62も、磁気エンコーダに限られるものではなく、機械式エンコーダ、光学式エンコーダ、磁気誘導式エンコーダ、ポテンショメータ等でもよい。
ロボットアーム60は、制御装置40に対応するマイコン70およびエッジPC(Personal Computer )100により制御が行われる。本実施形態のマイコン70は、センサI/O(Input/Output)71と、モータドライバ72と、ハンドドライバ73とを含む。センサI/O71は、検出装置10に対応する電光センサ80や、ToFセンサ81を制御する。モータドライバ72は、ロボットアーム60を制御する。また、ハンドドライバ73は、ロボットハンド65および吸引パッド66を制御する。
エッジPC100は、入出力装置30に対応する操作画面90、並びに、検出装置10に対応するカメラ82およびオプションシステム91に接続され、Wi-Fi(登録商標)やイーサネットなどの通信回線を介して、クラウドシステムやローカル別システムに接続される。この構成例のエッジPC100には、外部記憶部53に対応するUSB(Universal Serial Bus)メモリ92が接続される。ただし、外部記憶部53はUSBメモリに限られるものではなく、SDメモリ、ハードディスク、SSD(Solid State Drive )等でもよい。
図12は、本実施形態の制御システムで制御されるロボットの外観例を示す説明図である。図12に例示するロボットは、対象物体を検出するカメラで実現される検出装置10と、ロボットアームなどの駆動装置20と、操作画面を表示する入出力装置30とを備えている。図12に例示するロボットは、ストッパー58およびキャスター59を備えているため、容易に移動させ、設置することが可能である。また、駆動装置20が、軽量かつ低出力のモータとプーリーベルトにより実現されることにより、低コストかつ安全なロボットシステムを提供することが可能になる。
本発明は、ロボットの動作を制御する制御システムに好適に適用される。例えば、食品、医薬品および化粧品を扱う産業(いわゆる三品産業)の人手不足を解消するため、これらの生産等に用いられるロボット制御に、本発明の制御システムを利用することが可能である。
1,2 制御システム
10 検出装置
20 駆動装置
30 入出力装置
40 制御装置
41 記憶部
42 制御内容登録部
43 画像データ生成部
44 アノテーション処理部
45 駆動制御部
46 状態判定部
47 制御内容決定部
48 制御部
50 学習装置
51 記憶部
52 学習処理部
58 ストッパー
59 キャスター

Claims (5)

  1. 対象物体を検出する検出装置と、
    前記対象物体に対する処理を行う駆動装置と、
    前記検出装置により検出された前記対象物体の状態に基づいて前記駆動装置の制御を行う制御装置とを備え、
    前記検出装置は、対象物体を撮像するカメラで実現され、当該対象物体の画像を撮像し、
    前記制御装置は、
    撮像された対象物体の画像から、当該対象物体の状態を判定する状態判定部と、
    判定された対象物体の状態に応じて定義された制御内容に応じて、または、物体の状態を入力とし制御内容を出力とする制御モデルに検出された対象物体の状態を入力して、前記駆動装置の制御内容を決定する制御内容決定部と、
    決定された制御内容に基づいて、前記駆動装置の制御を行う制御部とを含む
    ことを特徴とする制御システム。
  2. 撮像された対象物体の画像を表示する出力装置と、
    前記画像に対するユーザの入力を受け付ける入力装置とを備え、
    制御装置は、
    対象物体の画像を次元削減した画像データを生成する画像データ生成部と、
    前記画像データを生成する元になった対象物体の画像に正解ラベルをラベル付けしたトレーニングデータを生成するアノテーション処理部とを含み、
    前記出力装置は、当該出力装置の画面上に前記次元削減により要約された主成分を次元軸とする座標軸、座標平面および座標空間のうちの少なくとも一つを定義し、生成された前記画像データの主成分が示す前記定義された座標軸上、座標平面上および座標空間上のうちの少なくとも一つの座標位置に、当該画像データを生成する元になった対象物体の画像を表示し、
    前記入力装置は、表示された1以上の前記対象物体の画像の指定の入力、および、指定された前記対象物体の画像に対する正解ラベルの入力を受け付け、
    前記アノテーション処理部は、指定された対象物体の画像に前記正解ラベルをラベル付けしたトレーニングデータを生成し、
    制御部は、前記トレーニングデータを用いて学習されたモデルを用いることで決定された制御内容に基づいて、駆動装置の制御を行う
    請求項1記載の制御システム。
  3. 請求項1または請求項2記載の制御システムによって駆動される駆動装置であって、
    1つ以上のモータと、
    当該モータの動作内容に応じた出力をするセンサとを含む
    ことを特徴とする駆動装置。
  4. 請求項2記載の制御システムが備える入力装置であって、
    撮像された対象物体の画像に対する正解ラベルの入力、撮像された画像内のマーカを基準とした位置および角度の指定、および、駆動装置の制御パラメータの少なくとも一つの受け付ける
    ことを特徴とする入力装置。
  5. コンピュータに、
    対象物体の画像を撮像するカメラで実現される検出装置により検出された当該対象物体の状態に基づいて、当該対象物体に対する処理を行う制御処理を実行させ、
    前記制御処理で、
    撮像された対象物体の画像から、当該対象物体の状態を判定する状態判定処理、
    判定された対象物体の状態に応じて定義された制御内容に応じて、または、物体の状態を入力とし制御内容を出力とする制御モデルに検出された対象物体の状態を入力して、前記駆動装置の制御内容を決定する制御内容決定処理、および、
    決定された制御内容に基づいて、前記駆動装置の制御を行う制御処理
    を実行させるための制御プログラム。
JP2021104772A 2021-06-24 2021-06-24 制御システム、駆動装置、入力装置および制御プログラム Pending JP2023003602A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021104772A JP2023003602A (ja) 2021-06-24 2021-06-24 制御システム、駆動装置、入力装置および制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021104772A JP2023003602A (ja) 2021-06-24 2021-06-24 制御システム、駆動装置、入力装置および制御プログラム

Publications (1)

Publication Number Publication Date
JP2023003602A true JP2023003602A (ja) 2023-01-17

Family

ID=85100303

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021104772A Pending JP2023003602A (ja) 2021-06-24 2021-06-24 制御システム、駆動装置、入力装置および制御プログラム

Country Status (1)

Country Link
JP (1) JP2023003602A (ja)

Similar Documents

Publication Publication Date Title
CN110116406B (zh) 具有增强的扫描机制的机器人系统
US11117262B2 (en) Intelligent robots
CN110154017B (zh) 输送机跟踪系统以及校准方法
EP3383593B1 (en) Teaching an industrial robot to pick parts
Nerakae et al. Using machine vision for flexible automatic assembly system
CN111604942A (zh) 物体检测装置、控制装置以及物体检测用计算机程序
JP7376268B2 (ja) 三次元データ生成装置及びロボット制御システム
CN111483750A (zh) 机器人系统的控制方法以及控制装置
CN113601501B (zh) 机器人柔性作业方法、装置及机器人
Niedersteiner et al. Smart workbench: A multimodal and bidirectional assistance system for industrial application
CN109079777B (zh) 一种机械臂手眼协调作业系统
JP2023003602A (ja) 制御システム、駆動装置、入力装置および制御プログラム
KR20160140401A (ko) 카메라를 이용한 로봇 축각도들의 검출 및 로봇의 선택
JP6265784B2 (ja) 姿勢推定システム、プログラムおよび姿勢推定方法
JP2020142323A (ja) ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
CN111470244B (zh) 机器人系统的控制方法以及控制装置
WO2021149646A1 (ja) 画像解析装置、制御装置、機械システム、画像解析方法、及び画像解析のためのコンピュータプログラム
JP2022037856A (ja) プログラム、方法、及びシステム
CN112666164A (zh) 针对多品类混线生产控制柜的机器人视觉检测方法
CN112743537A (zh) 注释装置
Titu et al. Experiments with cooperative robots that can detect object’s shape, color and size to perform tasks in industrial workplaces
TWI788253B (zh) 適應性移動操作設備及方法
US20240037785A1 (en) Method for mapping location codes
CN111376251B (zh) 一种物流机器人
US20230123629A1 (en) 3d computer-vision system with variable spatial resolution