JP2020082273A - 画像処理装置およびその制御方法、プログラム - Google Patents

画像処理装置およびその制御方法、プログラム Download PDF

Info

Publication number
JP2020082273A
JP2020082273A JP2018220364A JP2018220364A JP2020082273A JP 2020082273 A JP2020082273 A JP 2020082273A JP 2018220364 A JP2018220364 A JP 2018220364A JP 2018220364 A JP2018220364 A JP 2018220364A JP 2020082273 A JP2020082273 A JP 2020082273A
Authority
JP
Japan
Prior art keywords
image processing
image
work
robot
teaching point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018220364A
Other languages
English (en)
Other versions
JP7337495B2 (ja
JP2020082273A5 (ja
Inventor
元気 長
Motoki Cho
元気 長
悠也 三宅
Yuya Miyake
悠也 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018220364A priority Critical patent/JP7337495B2/ja
Priority to US16/684,954 priority patent/US11373263B2/en
Priority to CN201911173238.3A priority patent/CN111225142A/zh
Publication of JP2020082273A publication Critical patent/JP2020082273A/ja
Publication of JP2020082273A5 publication Critical patent/JP2020082273A5/ja
Application granted granted Critical
Publication of JP7337495B2 publication Critical patent/JP7337495B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manipulator (AREA)

Abstract

【課題】作業を短時間で復元して所期の作業を再現可能な画像処理装置を提供する。【解決手段】作業システムは、ロボット制御装置101およびロボット102、画像処理装置103および撮像装置104を備える。ロボット制御装置101は教示点によりロボット102の動作を制御する。画像処理装置103は、撮像装置104を制御して教示点でのワーク106を撮像して画像を取得し、撮像後の画像データを、教示点に対応するロボット102の動作位置のデータを関連付けて記憶する。ユーザが作業復元を行うときに画像処理装置103は、作業復元時にロボット102の動作位置で撮像装置104によって撮像された画像を取得する制御を行い、当該画像と記憶済みの画像との差異を表示して、作業復元の設定を支援する処理を行う。【選択図】図1

Description

本発明は、ロボット等の作業用装置の制御における画像処理技術に関する。
撮像装置とロボット装置を使用して製品の生産や品質確認、運搬等を行うシステムでは、対象(以下、ワークという)の把持機構、ロボットアーム、アクチュエータや搬送機構等の制御が行われる。撮像装置でワークを撮像し、画像処理を行ってワークの位置を計測したり、検査を行ったりすることで、ロボット装置の制御指示の切り換えや動作補正が可能となるので、より多様な作業を行うシステムを構築することができる。
撮像装置や画像処理装置を利用したロボットシステムでは、装置の接触や経年変化等によって、各種装置があらかじめ定められた設置条件から外れて、位置または姿勢のずれ(以下、位置ずれという)を起こす場合がある。この場合、作業の再現性の低下や作業不能をもたらす可能性がある。作業を復元するためには、システムを構成するロボット装置や、作業台、治工具等の作業道具の位置の復元や調整が必要である。
ところでロボット装置や作業道具の位置ずれが発生するたびに位置や姿勢の調整作業を行う方法は手間がかかる。そこでロボット装置や各種部材、周辺機器を剛性の高い架台やステージ等に接着剤や溶接、金具、ねじ等で固定する方法がある。しかし、このような位置ずれの抑制方法では、作業内容の変更に手間がかかる。例えば人と協働で作業するロボットや制御機器を使用し、頻繁に作業内容が変更されるシステムを想定する。作業者がロボットや制御機器、あるいは周辺の作業道具等と接触することで位置ずれが頻繁に起こる可能性があり、より簡易にシステムの作業を復元できることが望ましい。
特許文献1では位置ずれ量に基づき被撮像物(ワークや背景等)の位置・姿勢を、被撮像物を基準にして修正することと、位置ずれ量に応じた分だけ設計データを修正することの何れか一方を行う補正方法が開示されている。
特開平7−237158号公報
カメラとロボットを備える従来のシステムは、システムを構成する装置の位置ずれ等が起きた場合に作業の復元を支援する処理が十分でなく、所期の作業を再現することが困難である。
本発明は、作業を短時間で復元して所期の作業を再現可能な画像処理装置を提供することを目的とする。
本発明の実施形態の画像処理装置は、作業用装置の位置または姿勢を示す教示点により前記作業用装置の動作を制御する制御手段と、被写体を撮像する撮像手段と、前記撮像手段によって撮像された前記教示点での画像データと前記教示点に対応する前記作業用装置の位置または姿勢のデータとを関連付けて記憶する記憶手段と、作業復元を行うときに前記作業用装置の教示点で前記撮像手段によって撮像された第1の画像のデータ、および前記記憶手段から読み出した前記教示点での第2の画像のデータを処理し、前記第1および第2の画像を表示することにより作業復元の設定を支援する支援処理を行う画像処理手段と、を備える。
本発明の画像処理装置によれば、作業を短時間で復元して所期の作業を再現可能な画像処理装置を提供することができる。
実施形態に係る画像処理装置を含むシステムの全体構成図である。 実施形態に係る画像処理装置のブロック図である。 実施形態に係るフローチャート作成画面を表す図である。 実施形態に係るロボット移動の設定処理画面を表す図である 移動ポイントと対応する記憶画像の関連付け方法を表す図である。 作業復元の支援機能の画面を表す図である。 作業復元の支援機能の処理を説明するフローチャートである。 作業復元の支援機能を利用した確認処理を説明するフローチャートである。
以下に本発明の実施形態について、図面を参照して詳細に説明する。本実施形態ではロボットの制御によって作業を行うシステムの例を示すが、マニプレータや搬送装置等の作業用装置を備える各種システムへの適用が可能である。
図1は、本実施形態に係る画像処理装置を含むシステムの全体構成図である。ロボット制御装置101は外部装置からの制御指示にしたがってロボット102の各軸やハンドを制御する。本実施形態のロボット制御装置101は、画像処理装置103から制御指示を受けとることとするが、とりうるシステム構成や指示形態はこの限りではない。また、ロボット制御装置101や画像処理装置103はロボット102と同一の筐体に格納される場合もあるが、本実施形態では別体の装置として説明する。
画像処理装置103は任意の手順にしたがって所定の撮影パラメータの設定で撮像装置104による撮像動作を制御し、撮像された画像の処理や処理結果の出力を行う。本実施形態の撮像装置104はロボット102に取り付けられた形態とするが、両者を分離して設置してもよい。
画像処理装置103はロボット制御装置101に制御指示を送る。ロボット制御装置101は制御指示を受け付け、ロボット102を制御して作業台105上のワーク106を撮影できるようにロボット102の姿勢(以下、撮影姿勢という)を変更する。ロボット102の姿勢が撮影姿勢になると、画像処理装置103は撮像装置104を用いて、被写体であるワーク106を撮影する。画像処理装置103は撮影された画像データを用いて画像処理を行い、ワーク106の種別を判別する。そして画像処理装置103は種別に対応した配置台107〜109にワーク106を配置する。この際に画像処理装置103は、必要に応じてさらにワーク106の位置姿勢を計測し、ロボット102の把持姿勢を補正したり、ワーク106の品質に問題がないかを検査したりしてもよい。本システムで配置されたワークの一例110に示すように、ワークはその種類に応じて配置台107〜109へ分別して配置される。
例えば産業用途において、画像処理装置および撮像装置がロボットの視覚装置として用いられる場合、画像処理等を随時に行ってロボットを制御するシステムは生産効率が低下するので、画像処理に好適な撮影のタイミングや構図を予め設定することが多い。
図1のように、ロボット102に撮像装置104が取り付けられる場合、ロボット102を撮影姿勢に変更してから、撮像装置104の撮影パラメータを調整して撮影が行われる。ユーザは作業台105の上方の位置を撮影用の教示点としてロボットに予め教示しておき、それ以降には教示点を用いて繰り返し撮影や画像処理が行われる。教示点およびこれに対応する撮影パラメータまたは撮影パラメータの決定方法(固定値利用や自動露出、自動焦点調節等)を画像処理装置103が記憶しており、撮影パラメータを用いて以降の撮影が行われる。教示点はロボット102、ロボット制御装置101、または画像処理装置103に記憶される。また、画像処理の撮影パラメータや画像処理の内容を示すデータは画像処理装置103に記憶される。ロボット102がワーク106を把持したり、持ち上げたりする場合や配置台107〜109の上方に移動する場合、あるいは配置台の空き状況を確認する場合も同様である。ロボット102の位置や姿勢を予め教示する処理や、画像処理の内容を予め設定する処理が実行される。
ロボット102や作業台105、配置台107〜109等が位置ずれを起こして相対位置関係が確保できなくなった場合、所期の作業が保証されないという問題が生じる。そのような場合のシステムの復旧支援の処理について、図2〜図6を併用して説明する。
図2は、画像処理装置103を主体とするブロック図である。画像処理装置103は複数のインターフェース部203を介してロボット制御装置101、撮像装置104と接続されている。入出力表示装置201と操作入力装置202はインターフェース部203を介して画像処理装置103と接続された、ユーザ・インターフェース用の装置である。各装置は画像処理装置103の内部バス上に配置された各インターフェース部203を介して接続される。各インターフェース部203は通信に適した規格に基づき、接続対象に応じたネットワークインターフェース部、シリアル通信インターフェース部等から構成される。なお、各種装置については、システムの目的に応じて任意のユーザ・インターフェース部を設けたり、処理アルゴリズムおよびプログラム等を用いて動的に決定したりすることが可能である。
入出力表示装置201は、画像を表示する陰極管や液晶パネル等の表示デバイスを備える。操作入力装置202は、キーボードやポインティングデバイス、タッチパネル、入力操作コントローラ、ジェスチャ入力装置等により構成される。
画像処理装置103と接続される撮像装置104には、撮影のために必要に応じて照明装置218を併設してもよい。照明装置218はハロゲンランプや発光ダイオード等の光源を備え、インターフェース部203を介して画像処理装置103と接続される。また画像処理装置103に外部記憶装置を接続して、記憶容量を拡大してもよい。
画像処理装置103は、画像処理の制御主体となる汎用マイクロプロセッサとして構成されたCPU(中央演算処理装置)や画像処理プロセッサ等により構成される演算部204を有する。演算部204は内部バス(データバス、アドレスバス、他の制御線等)を介して記憶部205と接続される。
記憶部205には、ROM、RAM、またはEPROM、EEPROM等の不揮発性メモリデバイスや、外部記憶装置が使用される。ROMは“Read Only Memory”、RAMは“Random Access Memory”の略号である。EPROMは“Erasable Programmable Read Only Memory”の略号である。EEPROMは“Electrically Erasable Programmable Read Only Memory”の略号である。外部記憶装置は、例えばハードディスクドライブ装置(HDD)や半導体メモリ素子で構成された記憶装置、あるいはインターフェース部203と接続可能な記憶装置等である。
記憶部205は、処理データ保存領域206およびプログラム記憶領域を有する。処理データ保存領域206は、記憶部205中のRAM領域や、外部記憶装置のファイル領域や仮想記憶領域等によって構成される。処理データ保存領域206は、処理データを一時的に記憶する他、画像処理の設定パラメータ等の記憶領域として使用される。
記憶部205のプログラム記憶領域には、本実施形態の画像処理を実行するための画像処理プログラム207が記憶される。画像処理プログラム207は、操作入力装置202によって行われた各種操作に応じて、画像処理の設定変更や所定の画像処理を実行するプログラムである。また変更内容について、処理データ保存領域206へのデータの保存や、データの削除が可能である。
画像処理プログラム207は、各種の機能を実現するソフトウェアモジュールから構成される。例えば画像処理モジュール208は画像処理を実現するプログラムの本体部分である。画像処理モジュール208が行う画像処理には画像処理ライブラリ209が用いられる。画像処理ライブラリ209は、例えば静的または動的にリンクされるライブラリとして記憶部205に実装される。画像処理設定モジュール210は画像処理プログラム207の振舞いを決定する。画像処理設定は操作入力装置202によって行われた各種操作に応じて行われる。
さらに、画像処理プログラム207には、次の機能を実現するI/O(入出力)用サブルーチンが含まれる。例えば、外部デバイス制御サブルーチン211、保存データ生成サブルーチン212、ロボット制御装置101からの制御指令を受け付けるための指令受付サブルーチン213がある。またRAM領域や演算部204のキャッシュ領域等を使用する一時記憶サブルーチン214、表示画面生成サブルーチン215がある。保存データ出力サブルーチン216は処理データ保存領域206に保存されたデータを読み出して出力するプログラムであり、操作受付サブルーチン217は操作入力装置202からの操作指示を受け付けるためのプログラムである。各機能は、アプリケーション(ユーティリティ)プログラムや、静的または動的にリンクされるライブラリとして構成されたサブルーチン、といった形態で記憶部205に実装される。
画像処理装置103の演算部204のCPUは画像処理プログラム207を実行することにより、撮像装置104の制御と画像処理を行う。また、操作入力装置202により、操作受付サブルーチン217を通じてユーザの操作指示を受け付ける処理や、指令受付サブルーチン213を通じてロボット制御装置101から制御指令を受け付ける処理が実行される。演算部204は操作指示や制御指令に応じて、画像処理プログラム207の各機能モジュールやライブラリを呼び出して演算処理を行い、画像処理結果のデータをロボット制御装置101に送信する。また、画像処理結果のデータを外部記憶装置に送信して蓄積(ロギング)することができる。さらには、プログラムによって予め記憶されている画面構成と画像処理結果とを画面上で合成し、入出力表示装置201に表示する処理が実行される。
図3は、画像処理プログラム207を作成するためのフローチャート作成画面の例を示す図である。この画面は入出力表示装置201に表示される。本実施形態に係る画像処理プログラム207は、ユーザが画像処理装置103を用いて作成したフローチャートに従って実行されるものとする。その他の実施形態として、ユーザが図1に示していない画像処理プログラム作成装置を使用して画像処理プログラム207を作成する形態がある。この場合、作成された画像処理プログラム207が画像処理装置103の記憶部205に転送されて記憶される。また、機能別または目的別に予め定型で用意された組合せ済みの画像処理フローチャートを内包したパッケージ機能を用いる形態でもよい。この場合、ユーザはGUI(グラフィカル・ユーザ・インターフェース)上で所望の機能を選択し、パラメータ等の調整を行うことができる。
パーツリスト301は、フローチャートを構成する各処理パーツのリストである。ユーザは矩形枠内に示す各種の処理や、菱形枠内に示す条件分岐処理を指定することができる。例えばユーザは操作入力装置202を用いて、パーツリスト301から所望の処理パーツを指定する。ポインティングデバイス等でドラッグ&ドロップ操作を行い、フローチャート領域302に配置した複数の処理パーツ同士を線で結合することにより、フローチャートの作成が可能である。
複数の処理パーツから構成されるフローチャート303は、ロボット102によってワーク106を作業台105から取り出し、ワーク種別に従って配置台107〜109に配置する処理を記述した例である。処理開始後、ロボット移動304で作業台105の上方にロボット102を移動させる姿勢制御が行われ、ロボット102が撮影姿勢となる。撮影305はワーク106を撮影する処理である。次のワーク位置計算306はワーク106の位置や位相を算出する計算処理であり、その次のワーク種別判別307は、色模様等を用いてワーク106の種別を判別する処理である。ロボット補正移動308は、ワーク位置計算306で算出されたワーク106の位置と位相に従ってロボット102の補正制御を行い、ワーク位置の上方にロボット102のハンド(エンドエフェクタ)を移動させたり回転させたりする処理である。
次のロボット移動318は、ロボット102のハンドでワーク106の把持が可能な位置、例えばワーク106の直上の位置までロボット102を移動させる処理である。ロボットハンド制御309は、ハンドの開閉を制御してワーク106を把持(ピッキング)する処理である。次のロボット移動310はワーク106の種別に応じた配置台の上方へのロボット移動を行う処理であり、撮影311で配置台を撮影する処理が実行される。個数検査312では撮像装置104による撮影画像を用いてワークの個数を検査する処理が行われる。次のロボット移動313は個数に対応した配置位置へのロボット移動を行う処理である。ロボットハンド制御314では、ハンドの開閉を制御してワーク106を配置(プレイス)する処理が実行される。次のロボット移動315は配置台の上方へのロボット移動を行う処理である。条件分岐316は、ロボット102の作業回数を所定値(閾値)と比較する判定処理であり、作業回数が所定値未満である場合、ロボット移動304に戻る。作業回数が所定値に到達した場合には一連の処理を終了する。
ユーザは所望の処理パーツを組み合わせて、目的とするフローチャート303を作成する。作成されたフローチャート303において、処理パーツのいずれかのダブルクリック操作が行われた場合、そのパーツの詳細な処理を設定するための設定画面の表示処理に遷移する。OKボタン317のクリック操作が行われた場合、画像処理装置103はフローチャート303に記述された処理を実行するための画像処理プログラム207を生成する。図4は設定画面例を示す図である。この画面は、ユーザがダブルクリック操作により処理パーツ304、318、310、313、315のいずれかを指定したときに入出力表示装置201の画面に表示され、ユーザはロボット移動に関する設定操作を行うことができる。
図4の画面左側における移動ポイント設定方法の枠内には、ロボット102の移動ポイントや姿勢を設定する方法について例示する。ユーザは直接入力401とロボット変数402のいずれかをラジオボタンで選択できる。ユーザがロボット変数402を選択した場合、ロボットまたはその制御装置が記憶している教示点(ポイントP)を入力ボックス403で指定して移動先を設定することができる。読み込みボタン404は、ロボットまたはその制御装置が記憶している教示点を読み込むための操作ボタンである。また書き込みボタン405は現在のロボットの位置姿勢を、ロボットまたはその制御装置の教示点として記憶させるための操作ボタンである。
ユーザが直接入力401を選択した場合、画面中央の編集領域406においてロボットの位置姿勢を数値で編集することができる。操作ボタン407は現在位置の読取用ボタンであり、操作ボタン407の操作によって現時点でのロボットの位置姿勢のデータが読み込まれることで、ユーザが編集を行いやすくなる。
図4の画面右側の領域408には、ロボットの移動先に対する移動方式を選択する方法や、移動速度の設定部を示す。その下方の操作ボタン409は、各種ウィジェット(401〜408)によって設定された動作を確認するためのテスト実行ボタンである。さらに下方のOKボタン410は設定値データを記憶するためのボタンである。ユーザがOKボタン410を操作した場合、各種の設定値データが画像処理装置103の処理データ保存領域206に画像処理プログラム207等と関連付けて保存される。設定値データはプログラム実行時に処理データ保存領域206から読み出されて使用される。ユーザがキャンセルボタン411を操作した場合にはこれらの設定値が破棄される。
図4の左下には、ユーザが作業復元支援に関わる機能を利用する際に用いる操作部(412〜414参照)が設けられている。操作ボタン413は作業復元支援機能の画面の呼出ボタンであり、ユーザが呼出ボタンを操作すると、後述の画面(図6:作業復元支援画面601)が表示される。
ユーザが作業復元支援機能を利用する際には、ロボット102の移動ポイントが設定された後、撮像装置104よる撮影が行われる。撮影画像データは移動先の設定値(401〜408参照)と関連付けた対応画像のデータとして保存される。その詳細については図5を用いて後述する。また、撮像装置104が用いる撮影パラメータを記憶する処理が実行される。撮影パラメータとは、例えば絞り値、ゲイン、ISO感度、露光時間、ホワイトバランス、焦点距離等の他、撮像装置104が有する機構に応じてズーム値や、パンニング、チルティングの値等である。撮像装置104が手動または自動での撮影パラメータ調整機能を有する場合には、それらの調整画面がユーザに提示される。
チェックボックス412は、移動先の設定値(401〜408参照)や撮影パラメータ等の保存の判断に使用され、チェックマークの有無により機能利用の判定処理(チェック有りで利用)が行われる。また、画像処理プログラム中のロボット移動時のタイミングにおいて作業復元支援機能の一部を実行し、随時にレイアウトを確認する移動後判定機能を設けてもよい。その場合、ユーザが移動後判定機能の利用を指定するためのチェックボックス414が使用される(チェック有りで利用)。
図5は、ユーザが図4のOKボタン410を操作した場合に教示点と関連付けて撮像装置104より撮像が自動で行われる場合のデータ例を示す。各行に示すデータ501〜504はそれぞれ、移動ポイントID(識別情報)、移動ポイント情報、対応記憶画像の情報、撮影パラメータの情報である。移動ポイント情報は図4で設定された移動ポイントの各種設定値の情報であり、対応記憶画像は移動ポイントが保存される際に撮影された記憶画像の情報である。これらの情報は撮影パラメータ群と関連付けられている。ロボット移動の処理パーツ(図3のロボット移動参照)と対応して移動ポイントID、設定値、対応記憶画像のデータが保存される。なお、図4のキャンセルボタン411が操作された場合には設定値が破棄される。
図6および図7を参照して、作業復元支援機能を詳細に説明する。図6は、作業復元支援機能用の画面例を示す。画像処理装置103を含むロボットシステムにおいて、位置ずれやレイアウト等の復元を支援するための画面表示が行われる。図7は作業復元支援機能の処理を説明するフローチャートである。
図6に示す画面601は、例えば図4に示す作業復元支援用の操作ボタン413等が操作された際にプログラムが実行されて、入出力表示装置201に表示される。選択部602は、ロボット移動の処理パーツによって設定された移動ポイントIDをユーザが選択する際に使用するスピンコントロール付きボックスである。複数の移動ポイントが存在する場合、ユーザは所望の移動ポイントを指定することができる。ユーザの指定により移動ポイントを選択する方法の他には、半自動または自動設定による方法がある。例えばシステムの連続動作運転等を行い、または特徴抽出処理後に特徴の形状等を判定して、安定的な特徴をもつ移動ポイントを推定する処理が行われる。移動ポイントの推定結果をユーザに提示して推奨する処理、または推定結果に基づく自動設定処理が実行される。
選択部603はカメラIDをユーザが選択する際に使用するスピンコントロール付きボックスである。撮像装置としてシステムが複数台のカメラを有する場合、ユーザは選択部603によって所望のカメラを指定できる。ユーザの指定によりカメラIDを選択する方法の他には、半自動または自動設定による方法がある。例えばシステムの連続動作運転等を行い、または特徴抽出処理後に特徴の形状や分布、濃淡情報等を使用して、安定的な特徴をもつ撮像装置(特定のカメラ)を推定する処理が行われる。推定結果をユーザに提示して推奨する処理、または推定結果に基づく自動設定処理が実行される。
画像表示領域604は作業復元を支援するための表示領域である。画像表示領域604には移動ポイントに関連付けられた記憶画像605が現在の撮影画像と重畳して表示されるので、ユーザは表示された画像間の差異を容易に把握することができる。図6では、現在の移動ポイントID「01」において、作業台105を含む画像が表示される状況を例示する。画像処理に基づいて抽出された特徴情報606が画像と併せて表示される。
図7を参照して、画像表示領域604を含む表示画面の生成処理ついて説明する。図7の処理は、画像処理装置103の演算部204のCPUが所定のプログラムを実行することにより実現される。S701で記憶データの読み込み処理が行われる。図6の選択部602の操作により指定された移動ポイントIDに対応する記憶データ(図5:501〜504のいずれか)が取得される。
S702では撮影条件の再現処理が行われる。S701で取得されたデータに基づいて、指定されているロボットの移動ポイントまでの移動や、撮影パラメータの設定により、撮影条件が再現される。S703では撮像装置104を用いて撮影が行われ、次のS704で特徴抽出処理が実行される。S704では取得された記憶データに対応する画像に対して、所定の領域で特徴抽出処理が行われる。図6の選択部608は特徴抽出を行う画像処理方法を設定可能なスピンコントロール付きボックスである。特徴抽出の画像処理方法の選択項目としては、パターンマッチング、エッジ検出、濃淡の検出、二値化重心、外接矩形、周囲長、色等がある。画像処理機能で特徴を計算できる方法については自由に選択可能である。
図6では画像表示領域604の枠内に、複数個所の所定の領域607を示している。領域607は特徴抽出を行う画像処理の対象範囲に相当する領域であり、抽出された特徴を探索パターンとする処理が図7のS704で行われる。領域607は撮影画像の特徴量が閾値より大きい領域であり、例えばエッジ強調等の特徴抽出処理を行い、エッジの強度勾配や形状等から推奨範囲が自動的に設定される。あるいは、ユーザの手動操作による指示を受け付けて領域607を補正し、または任意に領域設定を行うことができる。
図7のS705では、S703で撮影された画像に対して、S704の探索パターンに基づくパターン探索処理が行われる。S706では、S705のパターン探索結果に基づいて位置ずれ計算が行われて、パターンの一致率または類似度や、位置ずれ量が算出される。計算方法の選択については後述する。
S707では、視認性を向上させるために特徴強調処理が行われる。例えば、図6の画像表示領域604の枠内には、特徴情報606が×印で強調表示される。S708では画像合成処理が実行され、選択された移動ポイントの対応記憶画像とS703で撮影された画像との合成画像が生成される。S709ではさらに、視覚支援処理の結果を合成する処理が実行される。視覚支援処理は、S707に示すようにユーザが位置や姿勢等を認識しやすくする処理である。S710では合成された処理結果が図6の画像表示領域604に表示される。選択された移動ポイントの対応記憶画像と撮影画像とを合成し、さらに特徴抽出結果を強調表示した画像を合成した最終的な画像がユーザに提示される。
本実施形態では、作業復元時に取得される撮影画像と、教示点である移動ポイントを設定する際に撮影された画像(対応記憶画像)を重畳表示する方法を説明した。これに限らず、それぞれ画像を各別の画面で表示してもよいし、画像同士を並べて表示する形態等でもよい。
図6の選択部609は、予め撮影された対応記憶画像の特徴と、作業復元支援時に現在の撮影画像から抽出した特徴との一致率または類似度の計算方法を選択可能なスピンコントロール付きボックスである。抽出される特徴は、パターンの位置や位相、エッジ、濃淡値、二値化領域の面積や位置・矩形の大きさ、位置および傾き・長さ・色濃度値等である。各特徴について、パターンの一致度、エッジや領域の重心位置の差、矩形の大きさや位置座標同士の距離および傾きの差、長さの差、濃淡の差等、複数の特徴同士の位置関係等が選択可能である。なお、2つ以上の計算方法の組み合わせを設定してもかまわない。
また、システム動作や工程によって、必要な作業復元精度が異なる場合がある。そこで本実施形態では許容誤差の指定部610(図6)が設けられている。指定部610は、ユーザが移動ポイントIDにおける許容誤差を指定する際に使用するスピンコントロール付きボックスである。許容誤差とは、画像計測時の再現性の影響による誤差がどの程度許容されるかを示し、画素数または実距離(たとえばミリメートル単位)で表される。本実施形態では、ユーザが、システム動作に要求される計測誤差量に基づき、許容誤差を指定部610で直接指定する形態を想定している。他の実施形態として、工程に要求される計測誤差範囲や、ロボット姿勢とワークとの位置関係、システムに使用される撮像装置のデバイス情報等から画像計測がとりうる誤差量を推定し、差分により推奨値を算出してユーザに提示する方法がある。
本実施形態は、図7のS706で得られた位置ずれ計算の結果に基づいて復元率を表示する機能を有する。復元率として図6の支援情報の表示欄に一致率611が表示されるので、ユーザはその数値を確認しながら、一致率が向上するように復元作業を行うことができる。また、補正方向支援612(図6)のナビゲーション表示は、位置ずれ計算結果の情報を用いて、一致率611を向上させるための移動方向(補正方向)を推奨する表示である。ユーザは矢印等の指標から補正方向を把握できる。
図6のチェックボックス613は、特徴抽出等の画像処理(608〜610参照)を用いたユーザ支援を利用するかどうかを選択する場合に使用される(チェック有りで利用)。操作ボタン614は作業復元支援機能を終了する際に使用される。図6の画面を閉じる際には、最終的にどのような復元が行われたかを記憶するために現在時刻等と併せて各種情報(602〜613参照)をメモリに記憶する処理が行われる。また、システムの操作者等を検出可能である場合には操作者ID等も上記情報に含めて記憶してもよい。
上述の説明では図4の操作ボタン413が押下されたことを契機にして、図6の作業復元支援の画面表示、および、図7に示す処理が実行されるとしたが、以下では実作業中のロボット移動の直後に復元支援処理を行う場合を説明する。実作業中のロボット移動とは、例えば図3の処理パーツ(304、318、310、313、315)に示すロボット移動である。
図8のフローチャートを参照して、図4のチェックボックス414がチェックされて移動後判定機能が利用される場合の処理について説明する。S801〜S806、S809〜S812の処理はそれぞれ、図7のS701〜706、S707〜S710と同様であるので、それらの詳細な説明を省略し、相違点を説明する。
ロボット102の移動直後にS801からS806の処理が実行され、S807で位置ずれ量が判定される。つまり位置ずれ量が、許容誤差の指定部610(図6)で指定されている許容誤差量以内であるか否かについて判定処理が実行される。位置ずれ量が許容誤差量以内であると判定された場合、作業復元支援処理を終了し、画像処理プログラム207の次の処理に進む。また位置ずれ量が許容誤差量の範囲外であると判定された場合には、S808に進んで実行中の画像処理プログラム207を中止し、画面601の表示処理が行われる。S808の次にS809〜S812の処理が実行される。
図8ではロボット移動の度に、S801(データの読み込み)やS802(撮影条件の再現)、S803(撮影)等が行われる。これに限らず、画像処理プログラムにおいて処理が一回以上実行されるか、事前に読み込み処理等が行われた場合に必要なデータをRAM上に保持して実作業内の処理と共通化を図る方法でもよい。
図8に示す処理では、画像処理プログラム207の実行途中であっても、作業レイアウトの位置ずれが発生していないかどうかを判断できる。閾値を超える位置ずれが発生していた場合には、以降のシステムの動作を停止することができる。それにより作業の失敗回数を低減し、その後のレイアウト復元を速やかに支援することができる。
また、S804での特徴抽出結果やS806の位置ずれ量のデータを監視し、画像処理ごとに記憶しておき、グラフを表示する等のグラフ化処理を行ってもよい。この場合、ユーザが経時的な変化を観察できるように、例えば特定期間のデータの線形近似や多項式近似を行い、グラフの傾きが所定の閾値範囲内であることを確認できるようにする処理が行われる。また、経時的な変化が所定の傾向をもつ変化であることが判定された場合に、ユーザに対する通知や警告表示等を行うことにより、システムの保全を支援することができる。
本実施形態では、各種作業に関わるシステムにレイアウトの物理的な位置ずれが発生し、作業が困難になった場合、作業を復元する際に教示位置(作業ポイント)と紐付いた記憶画像および現在の画像情報を併せて表示する。これにより、レイアウトの物理的な位置ずれに対する作業の復元を支援することができる。さらには、作業復元に際して記憶画像と現在の撮影画像の特徴情報を比較し、復元率(一致率や類似度等)を数値として表示することができるので、ユーザはレイアウトの復元状況を容易に理解できる。また、記憶画像と現在の撮影画像の特徴情報を比較し、その一致率を改善可能な情報(補正情報)を見つけられる場合には、当該情報を出力できるので、ユーザはレイアウトの復元方法を容易に理解して復元作業を行える。
本実施形態では、作業中の画像の特徴情報を時系列で比較し、また形状や強度勾配を用いて安定した特徴情報を推定して、特徴の抽出範囲を推奨することができるので、ユーザが効率的に設定を行えるという利点がある。また、画像処理プログラムの実行中に特徴抽出結果や位置ずれ量を適宜に確認し、指定された許容誤差量を超えた場合にシステム動作を停止することで、作業のトラブルを抑制できる。また、位置ずれ量等のグラフ化や傾向分析を行って処理結果を出力することはシステムの保全に役立つ。
上記のように画像処理装置は、作業用装置の教示点と撮影画像を関連付けて記憶しておき、作業やレイアウトの復元を行う際には教示点に対応する作業用装置の動作に関連付けられた画像等を表示して、作業復元の支援処理を行う。本実施形態によれば、ユーザは作業を復元するための修正を、より短時間で終了させることができる。
以上、本発明をその好適な実施形態に基づいて詳述したが、本発明はこれら特定の実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の様々な形態も本発明の技術的範囲に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101 ロボット制御装置
102 ロボット
103 画像処理装置
104 撮像装置


Claims (12)

  1. 作業用装置の位置または姿勢を示す教示点により前記作業用装置の動作を制御する制御手段と、
    被写体を撮像する撮像手段と、
    前記撮像手段によって撮像された前記教示点での画像データと前記教示点に対応する前記作業用装置の位置または姿勢のデータとを関連付けて記憶する記憶手段と、
    作業復元を行うときに前記作業用装置の教示点で前記撮像手段によって撮像された第1の画像のデータ、および前記記憶手段から読み出した前記教示点での第2の画像のデータを処理し、前記第1および第2の画像を表示することにより作業復元の設定を支援する支援処理を行う画像処理手段と、を備える
    ことを特徴とする画像処理装置。
  2. 前記画像処理手段は、前記第1および第2の画像の特徴をそれぞれ抽出し、前記第1の画像の特徴と前記第2の画像の特徴との位置または姿勢のずれ量を計算して作業復元の復元率を表示することにより前記支援処理を行う
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像処理手段は、前記復元率として前記第1の画像の特徴と前記第2の画像の特徴との一致率または類似度を表示することにより前記支援処理を行う
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記画像処理手段は、前記ずれ量を用いて前記復元率を向上させる補正方向を求めて表示することにより前記支援処理を行う
    ことを特徴とする請求項2または請求項3に記載の画像処理装置。
  5. 前記画像処理手段は、前記支援処理にて画像表示領域を有する設定画面を表示し、前記画像表示領域に前記第1および第2の画像を重畳して表示する制御を行う
    ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記画像処理手段は、前記画像表示領域にて画像処理により抽出された画像の特徴情報を前記第1および第2の画像と併せて表示する制御を行う
    ことを特徴とする請求項5に記載の画像処理装置。
  7. 前記画像処理手段は、前記作業用装置の作業中における撮影画像の特徴情報を時系列で比較して前記特徴情報を推定し、前記画像表示領域にて前記特徴情報の抽出範囲を表示する制御を行う
    ことを特徴とする請求項5に記載の画像処理装置。
  8. 前記画像処理手段は、前記画像表示領域に前記第1の画像の特徴量が閾値より大きい領域を表示して、作業復元の調整または設定の変更を受け付ける処理を行う
    ことを特徴とする請求項5に記載の画像処理装置。
  9. 前記画像処理手段は、前記作業用装置の作業中に画像処理プログラムを実行している途中で、前記ずれ量が指定された誤差量の範囲外となった場合に前記画像処理プログラムの実行を停止させる処理を行う
    ことを特徴とする請求項2に記載の画像処理装置。
  10. 前記画像処理手段は、前記画像処理プログラムを繰り返し実行して画像の特徴抽出結果または前記ずれ量の変化を監視してグラフ化または傾向分析の処理結果を出力する
    ことを特徴とする請求項9に記載の画像処理装置。
  11. 作業用装置の位置または姿勢を示す教示点により前記作業用装置の動作を制御する工程と、
    撮像手段により前記教示点で被写体を撮像する制御を行う工程と、
    前記撮像手段によって撮像された前記教示点での画像データと前記教示点に対応する前記作業用装置の位置または姿勢のデータとを関連付けて記憶手段に記憶する工程と、
    作業復元を行うときに前記作業用装置の教示点で前記撮像手段によって撮像された第1の画像のデータ、および前記記憶手段から読み出した前記教示点での第2の画像のデータを処理して前記第1および第2の画像を表示することにより作業復元の設定を支援する処理を行う工程と、有する
    ことを特徴とする画像処理装置の制御方法。
  12. 請求項11に記載の各工程を画像処理装置のコンピュータに実行させる
    ことを特徴とするプログラム。


JP2018220364A 2018-11-26 2018-11-26 画像処理装置およびその制御方法、プログラム Active JP7337495B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018220364A JP7337495B2 (ja) 2018-11-26 2018-11-26 画像処理装置およびその制御方法、プログラム
US16/684,954 US11373263B2 (en) 2018-11-26 2019-11-15 Image processing device capable of assisting with setting of work restoration, method of controlling the same, and recording medium
CN201911173238.3A CN111225142A (zh) 2018-11-26 2019-11-26 图像处理装置及其控制方法和记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018220364A JP7337495B2 (ja) 2018-11-26 2018-11-26 画像処理装置およびその制御方法、プログラム

Publications (3)

Publication Number Publication Date
JP2020082273A true JP2020082273A (ja) 2020-06-04
JP2020082273A5 JP2020082273A5 (ja) 2022-01-06
JP7337495B2 JP7337495B2 (ja) 2023-09-04

Family

ID=70771173

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018220364A Active JP7337495B2 (ja) 2018-11-26 2018-11-26 画像処理装置およびその制御方法、プログラム

Country Status (3)

Country Link
US (1) US11373263B2 (ja)
JP (1) JP7337495B2 (ja)
CN (1) CN111225142A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023053368A1 (ja) * 2021-09-30 2023-04-06 ファナック株式会社 教示装置及びロボットシステム
WO2023203694A1 (ja) * 2022-04-20 2023-10-26 ファナック株式会社 ロボットシステム、教示操作盤及びプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7391571B2 (ja) * 2019-08-28 2023-12-05 キヤノン株式会社 電子機器、その制御方法、プログラム、および記憶媒体
US11478936B2 (en) * 2019-10-09 2022-10-25 Canon Kabushiki Kaisha Image processing apparatus that processes image picked up by image pickup apparatus attached to robot, control method therefor, and storage medium storing control program therefor
US11826908B2 (en) * 2020-04-27 2023-11-28 Scalable Robotics Inc. Process agnostic robot teaching using 3D scans
JP2022111464A (ja) * 2021-01-20 2022-08-01 セイコーエプソン株式会社 コンピュータープログラム、ロボットの制御プログラムを作成する方法、及び、ロボットの制御プログラムを作成する処理を実行するシステム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0288187A (ja) * 1988-09-26 1990-03-28 Honda Motor Co Ltd ロボットの制御方法
JP2008080466A (ja) * 2006-09-28 2008-04-10 Daihen Corp 搬送用ロボットの教示方法
JP2012240174A (ja) * 2011-05-23 2012-12-10 Mitsubishi Electric Corp キャリブレーション装置及びキャリブレーション方法
JP2018001393A (ja) * 2016-07-08 2018-01-11 キヤノン株式会社 ロボット装置、ロボット制御方法、プログラム及び記録媒体
JP2018182217A (ja) * 2017-04-20 2018-11-15 株式会社Screenホールディングス 基板搬送装置、それを備える基板処理装置および基板搬送装置のティーチング方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3665353B2 (ja) * 1993-09-14 2005-06-29 ファナック株式会社 ロボットの教示位置データの3次元位置補正量取得方法及びロボットシステム
JPH07237158A (ja) 1993-12-28 1995-09-12 Hitachi Ltd 位置・姿勢検出方法及びその装置並びにフレキシブル生産システム
JP2002172575A (ja) * 2000-12-07 2002-06-18 Fanuc Ltd 教示装置
JP2004074224A (ja) * 2002-08-19 2004-03-11 Kobe Steel Ltd 溶接ロボット装置
JP3733364B2 (ja) * 2003-11-18 2006-01-11 ファナック株式会社 教示位置修正方法
JP4053550B2 (ja) * 2005-05-27 2008-02-27 ファナック株式会社 教示点を修正するための装置、プログラム、記録媒体及び方法
JP4210270B2 (ja) * 2005-06-07 2009-01-14 ファナック株式会社 ロボット制御装置及びロボット制御方法
DE112010000775B4 (de) * 2009-02-12 2016-03-17 Kyoto University Industrierobotersystem
JP4819957B1 (ja) * 2010-06-01 2011-11-24 ファナック株式会社 ロボットの位置情報復元装置および位置情報復元方法
JP5810562B2 (ja) * 2011-03-15 2015-11-11 オムロン株式会社 画像処理システムに向けられたユーザ支援装置、そのプログラムおよび画像処理装置
JP2013042250A (ja) 2011-08-12 2013-02-28 Sony Corp 撮像装置および撮像方法
JP5561260B2 (ja) * 2011-09-15 2014-07-30 株式会社安川電機 ロボットシステム及び撮像方法
US20150262346A1 (en) * 2012-10-18 2015-09-17 Konica Minolta, Inc. Image processing apparatus, image processing method, and image processing program
ES2522921B2 (es) * 2013-05-17 2015-07-30 Loxin 2002, S.L. Cabezal y procedimiento de mecanizado automático con visión
DE102013114707A1 (de) * 2013-12-20 2015-06-25 EXTEND3D GmbH Verfahren zur Durchführung und Kontrolle eines Bearbeitungsschritts an einem Werkstück
JP6379874B2 (ja) * 2014-08-29 2018-08-29 株式会社安川電機 ティーチングシステム、ロボットシステムおよびティーチング方法
US10076840B2 (en) * 2015-04-03 2018-09-18 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
JP6750841B2 (ja) * 2015-06-26 2020-09-02 キヤノン株式会社 検査方法、検査装置、処理装置、プログラム及び記録媒体
WO2017150292A1 (ja) 2016-03-04 2017-09-08 新日鉄住金ソリューションズ株式会社 表示システム、情報処理装置、情報処理方法及びプログラム
CN108000499B (zh) 2016-10-27 2020-07-31 达明机器人股份有限公司 机器人视觉坐标的编程方法
CN108214486A (zh) 2016-12-22 2018-06-29 精工爱普生株式会社 控制装置、机器人及机器人系统
EP3366433B1 (en) * 2017-02-09 2022-03-09 Canon Kabushiki Kaisha Method of controlling robot, method of teaching robot, and robot system
JP6964989B2 (ja) * 2017-02-09 2021-11-10 キヤノン株式会社 制御方法、ロボットシステム、物品の製造方法、プログラム、及び記録媒体
JP6823502B2 (ja) * 2017-03-03 2021-02-03 株式会社キーエンス ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP7064586B2 (ja) * 2018-06-05 2022-05-10 株式会社日立製作所 カメラ位置姿勢校正装置、カメラ位置姿勢校正方法並びにロボット

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0288187A (ja) * 1988-09-26 1990-03-28 Honda Motor Co Ltd ロボットの制御方法
JP2008080466A (ja) * 2006-09-28 2008-04-10 Daihen Corp 搬送用ロボットの教示方法
JP2012240174A (ja) * 2011-05-23 2012-12-10 Mitsubishi Electric Corp キャリブレーション装置及びキャリブレーション方法
JP2018001393A (ja) * 2016-07-08 2018-01-11 キヤノン株式会社 ロボット装置、ロボット制御方法、プログラム及び記録媒体
JP2018182217A (ja) * 2017-04-20 2018-11-15 株式会社Screenホールディングス 基板搬送装置、それを備える基板処理装置および基板搬送装置のティーチング方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023053368A1 (ja) * 2021-09-30 2023-04-06 ファナック株式会社 教示装置及びロボットシステム
WO2023203694A1 (ja) * 2022-04-20 2023-10-26 ファナック株式会社 ロボットシステム、教示操作盤及びプログラム

Also Published As

Publication number Publication date
JP7337495B2 (ja) 2023-09-04
CN111225142A (zh) 2020-06-02
US20200167886A1 (en) 2020-05-28
US11373263B2 (en) 2022-06-28

Similar Documents

Publication Publication Date Title
JP7337495B2 (ja) 画像処理装置およびその制御方法、プログラム
JP4844453B2 (ja) ロボットの教示装置及び教示方法
JP6700661B2 (ja) 画像処理装置、画像処理方法、及び画像処理システム
JP2018111166A (ja) 視覚センサのキャリブレーション装置、方法及びプログラム
JP6274794B2 (ja) 情報処理装置、情報処理方法、プログラム、及び画像測定装置
US11336831B2 (en) Image processing device, control method, and program storage medium
JP2001319219A (ja) 画像測定装置用パートプログラム生成装置及び方法、並びに画像測定装置及びその測定結果表示方法
CN111225143B (zh) 图像处理装置及其控制方法以及程序存储介质
JP2016146143A (ja) 画像処理方法および装置システム
JP2014126494A (ja) 検査支援装置、検査支援方法、ロボットシステム、制御装置、ロボット、及び、プログラム
JP4932202B2 (ja) 画像測定装置用パートプログラム生成装置、画像測定装置用パートプログラム生成方法、及び画像測定装置用パートプログラム生成用プログラム
WO2021049186A1 (ja) 工具検査システム
JP7094806B2 (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
CN112446287A (zh) 设置设备的控制处理过程的电子装置、方法和存储介质
JP3672970B2 (ja) 非接触画像計測システム
JP2008033306A (ja) 欠陥修正装置
US20150287177A1 (en) Image measuring device
JP2019215225A (ja) 画像検査システム及びその制御方法
JP2021174098A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
JP2006320962A (ja) 溶接治具監視装置、画像処理装置およびプログラム
JP2005150902A (ja) 撮影システム及び撮影制御情報決定方法
WO2014091897A1 (ja) ロボット制御システム
US20240028781A1 (en) Imaging condition adjusting device and imaging condition adjusting method
US20230191612A1 (en) Coordinate system setting system and position/orientation measurement system
TW202315722A (zh) 教示裝置及機器人系統

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230823

R151 Written notification of patent or utility model registration

Ref document number: 7337495

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151