JP7533265B2 - 支援システム、画像処理装置、支援方法およびプログラム - Google Patents

支援システム、画像処理装置、支援方法およびプログラム Download PDF

Info

Publication number
JP7533265B2
JP7533265B2 JP2021020864A JP2021020864A JP7533265B2 JP 7533265 B2 JP7533265 B2 JP 7533265B2 JP 2021020864 A JP2021020864 A JP 2021020864A JP 2021020864 A JP2021020864 A JP 2021020864A JP 7533265 B2 JP7533265 B2 JP 7533265B2
Authority
JP
Japan
Prior art keywords
measurement
unit
orientation
evaluation
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021020864A
Other languages
English (en)
Other versions
JP2022123510A (ja
Inventor
新 中井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2021020864A priority Critical patent/JP7533265B2/ja
Priority to EP21925720.1A priority patent/EP4292777A1/en
Priority to PCT/JP2021/009562 priority patent/WO2022172471A1/ja
Priority to US18/274,357 priority patent/US20240083038A1/en
Publication of JP2022123510A publication Critical patent/JP2022123510A/ja
Application granted granted Critical
Publication of JP7533265B2 publication Critical patent/JP7533265B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40564Recognize shape, contour of object, extract position and orientation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40613Camera, laser scanner on end effector, hand eye manipulator, local
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Description

本開示は、支援システム、画像処理装置、支援方法およびプログラムに関する。
従来、ばら積みされた複数の対象物(以下、「ワーク」とも称する。)の中からロボットが1つずつワークをピッキングする技術が知られている。このような技術では、ワークの位置姿勢が計測され、計測結果に応じてロボットの動作が決定される。
例えば、特開2019-155535号公報(特許文献1)は、ワークの位置姿勢を計測するセンサと、ワークを把持するハンドと、ハンドを把持位置に移動し且つ当該把持位置から移動するロボットと、制御装置とを備えるワークピッキング装置を開示している。制御装置は、ワークの位置姿勢の計測結果と位置姿勢の検出されたワーク数の算出結果とに基づいて、ワークの状況を判定し、判定結果が所定の条件を満たす場合に、計測パラメータを変更する。
特開2019-155535号公報
特許文献1に記載の技術は、ピッキング装置を運用しているときに、把持の成功率を向上させるように計測パラメータを設定する。すなわち、特許文献1に記載の技術は、ピッキング装置の立ち上げ時において、ワークの位置姿勢を計測するときの条件設定を支援することを想定していない。
ばら積みされたワークは、センサから見たとき様々な姿勢を取り得る。そのため、ピッキング装置の立ち上げ時において、ワークの位置姿勢を計測するときの条件を適切に設定するためには、ユーザは、手動でワークの姿勢を適宜変更させながら、ワークの位置姿勢の計測結果を確認する必要がある。その結果、ワークの位置姿勢を計測するときの条件設定に手間がかかる。そのため、対象物の取り得る姿勢を考慮した条件設定を支援するシステムの開発が望まれている。
本開示は、上記の問題に鑑みてなされたものであり、その目的は、対象物の取り得る姿勢を考慮した、対象物の位置姿勢を計測するときの条件設定を支援できる支援システム、画像処理装置、支援方法およびプログラムを提供することである。
本開示の一例によれば、支援システムは、撮像装置と、設定部と、ロボットと、計測部と、評価部と、提示部と、を備える。撮像装置は、対象物を撮像する。設定部は、撮像装置の移動範囲を設定する。ロボットは、移動範囲内の複数の計測位置に撮像装置を順次移動させる。計測部は、複数の計測位置の各々について、撮像装置の撮像により得られる撮像画像を用いて対象物の位置姿勢を計測する。評価部は、計測部による計測結果を評価する。提示部は、複数の計測位置の各々と評価部による評価結果との対応関係を示すマップを提示する。
この開示によれば、複数の計測位置から撮像することにより得られる撮像画像において、対象物の姿勢は互いに異なる。そのため、ユーザは、マップを確認することにより、撮像画像に写る対象物の位置姿勢と、計測された対象物の位置姿勢の評価結果との対応関係を容易に把握できる。当該対応関係により、ユーザは、計測位置ごとの評価結果の良否を判断し、対象物の写る画像を用いて対象物の位置姿勢を計測するときの条件を適宜設定できる。このように、支援システムは、対象物の取り得る姿勢を考慮した、対象物の位置姿勢を計測するときの条件設定を支援できる。
上述の開示において、評価部は、評価結果を表す少なくとも1つの評価値を計算する。提示部は、マップ上において、複数の計測位置のうちの1つの計測位置の指定を受け付け、1つの計測位置の指定に応じて、当該1つの計測位置に対応する少なくとも1つの評価値を提示する。
上記の開示によれば、ユーザは、各計測位置について、評価結果の詳細である評価値を容易に確認できる。ユーザは、評価値の大小に応じて、対象物の位置姿勢を計測するときの条件を適宜調整できる。
上述の開示において、計測部は、複数の計測位置の各々に対応する撮像画像に基づいて、撮像装置の視野領域の三次元点群データを生成する。提示部は、マップ上において、複数の計測位置のうちの1つの計測位置の指定を受け付け、1つの計測位置の指定に応じて、当該1つの計測位置に対応する三次元点群データから生成される画像を提示する。
上記の開示によれば、ユーザは、各計測位置について、撮像画像から生成された三次元点群データにおいて、点の不足および誤検出の点の有無などを容易に確認できる。
上述の開示において、設定部は、移動範囲内の基準位置を設定し、基準位置に対応する撮像画像から計測される対象物の位置姿勢と一致するように、対象物のモデルの位置姿勢を登録する。提示部は、1つの計測位置の指定に応じて、当該1つの計測位置から見たときのモデルの仮想画像を生成し、仮想画像を提示する。
上記の開示によれば、ユーザは、三次元点群データから生成される画像と仮想画像とを比較することにより、三次元点群データが適切に生成されているか否かを容易に確認できる。
上述の開示において、計測部は、撮像画像に基づいて、撮像装置の視野領域の三次元点群データを生成し、三次元点群データとテンプレートデータとに基づいて位置姿勢を計測する。少なくとも1つの評価値は、三次元点群データとテンプレートデータとの相関値を含む。
上記の開示によれば、ユーザは、相関値を確認することにより、テンプレートデータを用いた対象物の探索に問題があるか否かを判断できる。相関値が低い場合、ユーザは、相関値を高めるための対応策(たとえば、照明光の強度、シャッタースピードおよびカメラゲインなどの調整)を取ることができる。
上述の開示において、計測部は、複数の計測位置の各々について、複数回の計測を行なう。少なくとも1つの評価値は、複数回の計測の繰り返し精度を示す値を含む。
上記の開示によれば、ユーザは、繰り返し精度を示す値を確認することにより、計測の安定性を確認できる。繰り返し精度が低い場合、ユーザは、繰り返し精度を高めるための対応策(たとえば、照明光の強度、シャッタースピードおよびカメラゲインなどの調整)を取ることができる。
上述の開示において、複数の計測位置は、基準位置を含む。計測部は、撮像装置を基準とするカメラ座標系における対象物の位置姿勢を計測する。少なくとも1つの評価値は、複数の計測位置の各々について、基準位置からの移動量に基づいて推定される、カメラ座標系における対象物の位置姿勢の第1変化量と、基準位置において計測された位置姿勢から当該計測位置において計測された位置姿勢への第2変化量との差分を示す値を含む。
上記の開示によれば、ユーザは、第1変化量と第2変化量との差分を示す値を確認することにより、撮像画像から対象物を探索する処理に問題が生じているか否かを確認できる。このような問題が生じている場合、ユーザは、撮像画像から対象物を探索する処理に関する条件の変更を行なえばよい。
上述の開示において、複数の計測位置は、同一の球面上に存在する。マップは、当該球の中心を原点とする極座標系で表される。
上記の開示によれば、ユーザは、マップを確認することにより、球面上に配置された複数の計測位置の各々を把握しやすくなる。
本開示の一例によれば、画像処理装置は、対象物を撮像する撮像装置の移動範囲を設定する設定部と、移動範囲内の複数の計測位置の各々について、当該計測位置に位置する撮像装置から得られる撮像画像を用いて対象物の位置姿勢を計測する計測部と、計測部による計測結果を評価する評価部と、複数の計測位置の各々と前記評価部による評価結果との対応関係を示すマップを提示する提示部と、を備える。
本開示の一例によれば、支援方法は、第1~第5のステップを備える。第1のステップは、対象物を撮像する撮像装置の移動範囲を設定するステップである。第2のステップは、ロボットを用いて、移動範囲内の複数の計測位置に撮像装置を順次移動させるステップである。第3のステップは、複数の計測位置の各々について、撮像装置の撮像により得られる撮像画像を用いて対象物の位置姿勢を計測するステップである。第4のステップは、位置姿勢の計測結果を評価するステップである。第5のステップは、複数の計測位置の各々と評価結果との対応関係を示すマップを提示するステップである。
本開示の一例によれば、プログラムは、上記の支援方法をコンピュータに実行させる。これらの開示によって、対象物の取り得る姿勢を考慮した、対象物の位置姿勢を計測するときの条件設定を支援できる。
本開示によれば、対象物の取り得る姿勢を考慮した、対象物の位置姿勢を計測するときの条件設定を支援できる。
実施の形態に係る支援システムの全体構成を示す概略図である。 ばら積みされたワークの一例を示す図である。 図1に示す画像センサコントローラのハードウェア構成の一例を示す概略図である。 支援システムにおいて用いられる座標系の一例を示す図である。 図1に示す画像センサコントローラの機能構成の一例を示すブロック図である。 支援システムにおける支援処理の流れを示すフローチャートである。 移動範囲の設定を支援する画面(設定画面)の一例を示す図である。 性能レポート画面の一例を示す図である。
本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰返さない。
§1 適用例
図1を参照して、本発明が適用される場面の一例について説明する。図1は、実施の形態に係る支援システムの全体構成を示す概略図である。図1に例示される支援システム1は、対象物であるワークWの写る画像を用いてワークWの位置姿勢を計測するときの条件設定を支援する。支援システム1は、たとえば、生産ラインなどに組み込まれ、ばら積みされたワークWに対するピッキングの制御のために利用される。
図1に例示される支援システム1は、画像センサコントローラ100と、計測ヘッド200と、ロボット300と、ロボットコントローラ400と、ディスプレイ500と、を備える。
計測ヘッド200は、ワークWを含む被写体を撮像する。計測ヘッド200は、投影部201と撮像部202とを備える。投影部201は、画像センサコントローラ100からの指示に従って任意の投影パターン光を被写体に投影する。投影パターンは、例えば照射面内の所定方向に沿って明るさが周期的に変化するパターンである。撮像部202は、画像センサコントローラ100からの指示に従って、投影パターン光が投影された状態の被写体を撮像する。
投影部201は、主要なコンポーネントとして、例えば、LED(Light Emitting Diode)やハロゲンランプなどの光源と、投影部201の照射面の側に配置されたフィルタとを含む。フィルタは、後述するような三次元形状の計測に必要な投影パターン光を発生させるものであり、画像センサコントローラ100からの指令に従って、面内の透光率を任意に変化させることができる。投影部201は、時間的に変化しない固定の投影パターン光を投影してもよいし、時間的に変化する投影パターン光を投影してもよい。投影部201は、液晶またはDMD(Digital Mirror Device)と光源(LEDまたはレーザ光源など)とを用いた構成であってもよい。
撮像部202は、主要なコンポーネントとして、例えば、レンズなどの光学系と、CCD(Coupled Charged Device)やCMOS(Complementary Metal Oxide Semiconductor)センサといった撮像素子とを含む。
ロボット300は、計測ヘッド200を移動させる。さらに、ロボット300は、ワークWに対するピッキングを行なってもよい。すなわち、支援システム1は、ばら積みされたワークWをピッキングするロボットを用いて、ワークWの位置姿勢を計測するときの条件設定の支援を行なってもよい。なお、支援システム1は、ばら積みされたワークWをピッキングするロボットとは異なるロボットを用いて、ワークWの位置姿勢を計測するときの条件設定の支援を行なってもよい。
ロボット300は、多関節アーム301と、多関節アーム301を支持するベース302とを含む。多関節アーム301の先端にはフランジプレート303が取り付けられる。フランジプレート303には、計測ヘッド200とエンドエフェクタ304とを支持する支持部材305が取り付けられる。ロボット300の動作は、ロボットコントローラ400によって制御される。エンドエフェクタ304は、ワークWを保持するように構成され、たとえば吸着パッドまたは2指ハンド等を含む。
ロボットコントローラ400は、画像センサコントローラ100からの移動指令に従って、多関節アーム301を制御する。移動指令は、たとえば、フランジプレート303の位置姿勢を示す。ロボットコントローラ400は、フランジプレート303の位置姿勢が移動指令と一致するように、多関節アーム301を制御する。
画像センサコントローラ100は、ワークWの位置姿勢を計測するときの条件設定の助けとなる画面を提供する。図1に示されるように、画像センサコントローラ100は、設定部11と、計測部12と、評価部13と、提示部14と、を備える。
設定部11は、計測ヘッド200の移動範囲を設定する。設定部11は、ユーザ入力に応じて移動範囲を設定すればよい。設定部11は、移動範囲内の複数の計測位置に計測ヘッド200を順次移動させるように移動指令を生成し、生成した移動指令をロボットコントローラ400に出力する。これにより、ロボット300は、移動範囲内の複数の計測位置に計測ヘッド200を順次移動させる。たとえば、計測ヘッド200は、矢印50,51に沿って移動する。
計測部12は、複数の計測位置の各々について、計測ヘッド200の撮像により得られる撮像画像を用いてワークWの位置姿勢を計測する。具体的には、計測部12は、撮像画像に基づいて、計測ヘッド200の視野領域の三次元形状を計測し、計測された三次元形状の中にワークWに対応する形状を探索する。計測部12は、探索結果に応じて、ワークWの位置姿勢を計測する。
評価部13は、複数の計測位置の各々について、計測部12によるワークWの位置姿勢の計測結果を評価する。
提示部14は、複数の計測位置の各々と評価部13による評価結果との対応関係を示すマップ60を提示する。
複数の計測位置から撮像することにより得られる撮像画像において、ワークWの姿勢は互いに異なる。そのため、ユーザは、マップ60を確認することにより、撮像画像に写るワークWの位置姿勢と、計測されたワークWの位置姿勢の評価結果との対応関係を容易に把握できる。当該対応関係により、ユーザは、計測位置ごとの評価結果の良否を判断し、ワークWの位置姿勢を計測するときの条件を適宜設定できる。このように、支援システム1は、ワークWの取り得る姿勢を考慮した、ワークWの位置姿勢を計測するときの条件設定を支援できる。
§2 具体例
<A.ばら積みされたワークの例>
図2は、ばら積みされたワークの一例を示す図である。図2には、コンテナ2内にばら積みされた複数のワークWが示される。コンテナ2内にばら積みされた複数のワークWは、1つずつ順次ピッキングされる。
位置姿勢が精度良く計測されないワークWが存在する場合、当該ワークWは、ピッキングされずに、コンテナ2内に残る。ピッキングされずにコンテナ2内に残るワークWの個数は、望ましくは0である。そのため、コンテナ2内において取り得る様々な姿勢の各々のワークWを精度良く計測可能なように条件を設定することが好ましい。しかしながら、コンテナ2内において取り得る様々な姿勢の各々のワークWを精度良く計測するための最適な条件を見つけるために時間がかかる。そのため、ユーザは、条件設定に要する時間とピッキングされずにコンテナ2内に残るワークWの個数との両者が許容範囲内となるように、ワークWの取りうる姿勢を考慮して、ワークWの位置姿勢を計測するときの条件設定を行なう必要がある。本実施の形態に係る支援システム1は、このような条件設定を支援する。
<B.画像センサコントローラのハードウェア構成例>
画像センサコントローラ100は、典型的には、汎用的なアーキテクチャを有しているコンピュータであり、予めインストールされたプログラム(命令コード)を実行することで、本実施の形態に係る支援処理を実行する。このようなプログラムは、典型的には、各種記録媒体などに格納された状態で流通し、あるいは、ネットワークなどを介して画像センサコントローラ100にインストールされる。
このような汎用的なコンピュータを利用する場合には、本実施の形態に係る支援処理を実行するためのアプリケーションに加えて、コンピュータの基本的な処理を実行するためのOS(Operating System)がインストールされていてもよい。この場合には、本実施の形態に係るプログラムは、OSの一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列で所定のタイミングで呼出して処理を実行させるものであってもよい。すなわち、本実施の形態に係るプログラム自体は、上記のようなモジュールを含んでおらず、OSと協働して処理が実行されてもよい。本実施の形態に係るプログラムとしては、このような一部のモジュールを含まない形態であってもよい。
さらに、本実施の形態に係るプログラムは、他のプログラムの一部に組込まれて提供されるものであってもよい。その場合にも、プログラム自体には、上記のような組合せられる他のプログラムに含まれるモジュールを含んでおらず、当該他のプログラムと協働して処理が実行される。すなわち、本実施の形態に係るプログラムとしては、このような他のプログラムに組込まれた形態であってもよい。なお、プログラムの実行により提供される機能の一部もしくは全部を専用のハードウェア回路として実装してもよい。
図3は、図1に示す画像センサコントローラのハードウェア構成の一例を示す概略図である。図3に示されるように、画像センサコントローラ100は、演算処理部であるCPU(Central Processing Unit)101と、記憶部としてのメインメモリ102およびハードディスク103と、計測ヘッドインターフェース104と、入力インターフェース105と、表示コントローラ106と、通信インターフェース107と、データリーダ/ライタ108とを含む。これらの各部は、バス109を介して、互いにデータ通信可能に接続される。
CPU101は、ハードディスク103にインストールされたプログラム(コード)をメインメモリ102に展開して、これらを所定順序で実行することで、各種の演算を実施する。メインメモリ102は、典型的には、DRAM(Dynamic Random Access Memory)などの揮発性の記憶装置であり、ハードディスク103から読み出されたプログラムに加えて、計測ヘッド200によって取得された画像などを保持する。さらに、ハードディスク103には、後述するような各種データなどが格納される。なお、ハードディスク103に加えて、あるいは、ハードディスク103に代えて、フラッシュメモリなどの半導体記憶装置を採用してもよい。
計測ヘッドインターフェース104は、CPU101と計測ヘッド200との間のデータ伝送を仲介する。すなわち、計測ヘッドインターフェース104は、計測ヘッド200と接続される。計測ヘッドインターフェース104は、CPU101が生成した内部コマンドに従って、計測ヘッド200に対して投影コマンドおよび撮像コマンドを与える。計測ヘッドインターフェース104は、計測ヘッド200からの画像を一時的に蓄積するための画像バッファ104aを含む。計測ヘッドインターフェース104は、画像バッファ104aに所定コマ数の画像が蓄積されると、その蓄積された画像をメインメモリ102へ転送する。
入力インターフェース105は、CPU101と入力装置600との間のデータ伝送を仲介する。すなわち、入力インターフェース105は、ユーザが入力装置600に入力した入力情報を受け付ける。入力装置600は、キーボード、マウス、タッチパネルなどを含む。
表示コントローラ106は、ディスプレイ500と接続され、CPU101における処理結果などをユーザに通知するようにディスプレイ500の画面を制御する。
通信インターフェース107は、CPU101とロボットコントローラ400などの外部装置との間のデータ伝送を仲介する。通信インターフェース107は、典型的には、イーサネット(登録商標)やUSB(Universal Serial Bus)などからなる。
データリーダ/ライタ108は、CPU101と記録媒体であるメモリカード700との間のデータ伝送を仲介する。すなわち、メモリカード700には、画像センサコントローラ100で実行されるプログラムなどが格納された状態で流通し、データリーダ/ライタ108は、このメモリカード700からプログラムを読出す。また、データリーダ/ライタ108は、CPU101の内部指令に応答して、計測ヘッド200によって撮像された画像および/または画像センサコントローラ100における処理結果などをメモリカード700へ書込む。なお、メモリカード700は、SD(Secure Digital)などの汎用的な半導体記憶デバイスや、フレキシブルディスク(Flexible Disk)などの磁気記憶媒体や、CD-ROM(Compact Disk Read Only Memory)などの光学記憶媒体等からなる。
<C.座標系>
CPU101は、複数の座標系の座標値を用いて、ワークW、計測ヘッド200およびロボット300の位置姿勢を演算する。
図4は、支援システムにおいて用いられる座標系の一例を示す図である。図4に示されるように、支援システム1は、ロボットベース座標系、フランジ座標系(ツール座標系とも称される)、カメラ座標系、およびワーク座標系を用いる。
ロボットベース座標系は、ロボット300のベース302を基準とする座標系である。ロボットベース座標系は、ベース302に設定された原点Obと基底ベクトルXb,Yb,Zbとによって定められる。
フランジ座標系は、ロボット300のフランジプレート303を基準とする座標系である。フランジ座標系は、フランジプレート303のフランジ面に設定された原点Ofと基底ベクトルXf,Yf,Zfとによって定められる。
カメラ座標系は、計測ヘッド200の撮像部202を基準とする座標系である。カメラ座標系は、撮像部202に設定された原点Ocと基底ベクトルXc,Yc,Zcとによって定められる。
ワーク座標系は、ワークWを基準とする座標系である。ワーク座標系は、ワークWに設定された原点Owと基底ベクトルXw,Yw,Zwとによって定められる。
計測ヘッド200から受けた撮像画像に基づいて検出されるワークWの位置姿勢は、たとえばカメラ座標系をワーク座標系に変換する座標変換行列CWによって示される。座標変換行列CWは、カメラ座標系におけるワーク座標系の原点Owの位置および基底ベクトルXw,Yw,Zwを表す。
計測ヘッド200は、支持部材305を介してフランジプレート303に固定される。そのため、計測ヘッド200とフランジプレート303との相対位置関係は一定である。当該相対位置関係は、たとえばフランジ座標系をカメラ座標系に変換する座標変換行列FCによって示される。座標変換行列FCは、フランジ座標系におけるカメラ座標系の原点Ocの位置および基底ベクトルXc,Yc,Zcを表す。座標変換行列FCは、固定値で表され、事前に実施されるキャリブレーションによって求められる。キャリブレーションとして、たとえば、ロボット300を動作させながら、計測ヘッド200の撮像部202で固定位置に設置されたマーカを撮像する公知のハンドアイキャリブレーションが採用され得る。
画像センサコントローラ100からロボットコントローラ400に出力される移動指令は、たとえばベース座標系をフランジ座標系に変換する座標変換行列BFによって示される。座標変換行列BFは、ベース座標系におけるフランジ座標系の原点Ofと基底ベクトルXf,Yf,Zfを表す。
ロボットベース座標系における計測ヘッド200の位置姿勢は、たとえばロボットベース座標系をカメラ座標系に変換する座標変換行列BCによって示される。座標変換行列BCは、
BCBFFC
を満たす。上述したように、そのため、座標変換行列FCは、固定値で表される。そのため、CPU101は、移動先の計測ヘッド200の位置姿勢から、ロボットコントローラ400に出力すべき移動指令を演算できる。
ロボットベース座標系におけるワークWの位置姿勢は、たとえばロボットベース座標系をワーク座標系に変換する座標変換行列BWによって示される。座標変換行列BWは、
BWBFFCCW
を満たす。上述したように、座標変換行列CWは、カメラ座標系におけるワークWの位置姿勢を示し、計測ヘッド200から受けた撮像画像に基づいて検出される。そのため、CPU101は、ロボットコントローラ400に出力した移動指令および撮像画像に基づく計測結果を用いて、ロボットベース座標系におけるワークWの位置姿勢を演算できる。
<D.画像センサコントローラの機能構成例>
図5は、図1に示す画像センサコントローラの機能構成の一例を示すブロック図である。図5に示されるように、画像センサコントローラ100は、設定部11と、計測部12と、評価部13と、提示部14と、記憶部15と、を備える。設定部11、計測部12、評価部13、および提示部14は、図3に示すCPU101がハードディスク103に格納されたプログラムを実行することにより実現される。記憶部15は、図3に示すメインメモリ102およびハードディスク103によって実現される。
(D-1.記憶部)
記憶部15は、キャリブレーションデータ151と、ワーク形状データ152と、複数のテンプレートデータ153と、計測位置リスト154と、モデル位置姿勢データ155と、を記憶する。
キャリブレーションデータ151は、計測ヘッド200とフランジプレート303との相対位置関係を定義付けるデータである。キャリブレーションデータ151は、たとえば、ハンドアイキャリブレーションによって生成され、座標変換行列FCを示す。
ワーク形状データ152は、ワークWの三次元形状を示す。ワーク形状データ152は、たとえばCAD(Computer-Aided Design)データである。
複数のテンプレートデータ153は、ワーク形状データ152に基づいて予め作成される。複数のテンプレートデータ153は、仮想空間上において、ワーク形状データ152で示されるワークモデルを複数の仮想視点からそれぞれ見たときのワークモデルの表面上の点の座標を示す。
計測位置リスト154は、計測ヘッド200の計測位置の一覧を示す。計測位置リスト154は、後述するように設定部11によって生成される。
モデル位置姿勢データ155は、ロボットベース座標系におけるワークモデルの位置姿勢を示す。モデル位置姿勢データ155は、後述するように設定部11によって生成される。
(D-2.設定部)
設定部11は、移動範囲決定部111と、登録部112と、移動指令部113と、を含む。
移動範囲決定部111は、入力装置600への入力と、指定された位置および姿勢の計測ヘッド200から受けた撮像画像とに応じて、計測ヘッド200の移動範囲を設定する。計測ヘッド200の移動範囲は、たとえば、計測ヘッド200の視野領域内に設定された基準点を中心とし、当該基準点と計測ヘッド200の撮像部202との距離を半径とする球面上の領域を示す。基準点は、たとえば、計測ヘッド200の視野領域の中心であり、かつ、ワークWの重心と同一の高さ(Z座標値)を有する点である。
移動範囲決定部111は、移動範囲内の複数の位置の各々を計測位置として設定する。なお、移動範囲決定部111は、上記の指定された位置を基準位置として設定する。基準位置は、複数の計測位置に含まれる。
登録部112は、移動範囲決定部111によって決定された移動範囲に関する情報を記憶部15に登録する。登録部112は、移動範囲に関する情報として、計測位置リスト154およびモデル位置姿勢データ155を生成する。
登録部112は、移動範囲決定部111によって決定された複数の計測位置について、各計測位置と各計測位置における計測ヘッド200の姿勢との一覧を示す計測位置リスト154を生成する。各計測位置における計測ヘッド200の姿勢は、撮像部202の光軸上に基準点が位置するように設定される。言い換えると、各計測位置における計測ヘッド200の姿勢は、基準点から見たときの計測ヘッド200の姿勢が一定となるように設定される。すなわち、カメラ座標系において、基準点は固定位置(たとえば視野の中心位置)となる。たとえば、ワークWが基準点に位置している場合、各計測位置の撮像画像において、ワークWは、中心に写る。ワークWが基準点から離れた場所に位置している場合、各計測位置の撮像画像において、ワークWは、中心から離れた位置に写る。各計測位置の計測ヘッド200の位置姿勢は、たとえば、ロボットベース座標系を当該位置姿勢の計測ヘッド200に対応するカメラ座標系に変換する座標変換行列BCで示される。
計測位置リスト154は、複数の計測位置を区別するために、各計測位置を識別する番号を含む。計測位置リスト154において、番号「0」は、基準位置に対応する。
登録部112は、上記の指定された位置および姿勢の計測ヘッド200から受けた撮像画像を用いて計測されたワークWの位置姿勢をワークモデルの位置姿勢として決定する。ワークモデルは、ワークWと同一の形状を有するモデルである。登録部112は、決定したワークモデルの位置姿勢を示すモデル位置姿勢データ155を生成し、記憶部15に登録する。モデル位置姿勢データ155は、ロボットベース座標系におけるワークモデルの位置姿勢を示す。
移動指令部113は、入力装置600への開始指示の入力に応じて、計測ヘッド200を複数の計測位置に順次移動させるための移動指令を生成し、生成した移動指令をロボットコントローラ400に出力する。
上述したように、ロボットコントローラ400は、フランジプレート303の位置姿勢を示す移動指令を受けて、フランジプレート303の位置姿勢が移動指令と一致するように、多関節アーム301を制御する。そのため、移動指令部113は、計測位置リスト154から各計測位置に対応する計測ヘッド200の位置姿勢を示す座標変換行列BCを読み出す。座標変換行列BCと、フランジ座標系をカメラ座標系に変換する座標変換行列FCと、ロボットベース座標系をフランジ座標系に変換する座標変換行列BFとは、以下の式を満たす。
BCBFFC
そのため、移動指令部113は、読み出した座標変換行列BCとキャリブレーションデータ151によって示される座標変換行列FCとを用いて、座標変換行列BFを演算する。移動指令部113は、演算により得られた座標変換行列BFを示す移動指令を生成すればよい。
(D-3.計測部)
計測部12は、計測ヘッド200から取得した撮像画像から被写体の三次元形状を計測する三次元計測処理と、計測された三次元形状の中からワークWの形状を探索する探索処理(サーチ処理)と、を行なうことにより、ワークWの位置姿勢を計測する。そのため、計測部12は、三次元計測処理を行なう点群データ生成部121と、探索処理を行なうワーク検出部122と、を含む。
点群データ生成部121は、各計測位置に対応する撮像画像に基づいて、当該計測位置に配置された計測ヘッド200の視野領域の三次元計測を行ない、三次元点群データを生成する。三次元点群データは、計測ヘッド200の視野領域に存在する被写体表面(計測表面)上の各点の三次元座標を示す。
三次元計測処理として、例えば三角測距方式、同軸方式が採用され得る。三角測距方式は、撮像と投光との光軸を基線長分だけ離間させ、視差を距離に変換する方式である。三角測距方式には、アクティブ法とパッシブ法とが含まれる。アクティブ法には、構造化照明法、位相シフト法、空間コード法が含まれる。同軸方式は、撮像と測距手段との光軸を同一に設定する方式である。測距手段として、焦点方式が含まれる。また、同軸に近い方式としてTOF(Time of Flight)方式も含まれる。点群データ生成部121は、これらの方式のいずれかを用いて三次元計測処理を実行すればよい。例えば位相シフト法を用いて三次元計測処理が行なわれる。
ワーク検出部122は、三次元サーチによってワークWの位置姿勢を検出する。具体的には、ワーク検出部122は、記憶部15に格納された複数のテンプレートデータ153と三次元点群データとを照合し、三次元点群データの中からテンプレートと類似するデータを探索する。探索されたデータは、ワークWが存在する部分のデータに対応する。ワーク検出部122は、三次元点群データの中から探索した、テンプレートと類似するデータに基づいて、ワークWの位置姿勢を検出する。ワーク検出部122によって検出されるワークWの位置姿勢は、カメラ座標系で示される。
なお、ワーク検出部122は、公知の検出アルゴリズムを用いて、ワークWの位置姿勢を検出すればよい。具体的には、ワーク検出部122は、三次元点群データとテンプレートデータ153との相関値を算出し、算出した相関値が第1閾値以上であることに応じて、ワークWが存在していると判断する。そして、ワーク検出部122は、相関値が最も高くなるテンプレートデータ153に応じて、ワークの位置姿勢を検出する。
なお、計測部12は、各計測位置について、ワークWの位置姿勢の計測を複数回行なってもよい。
(D-4.評価部)
評価部13は、相関値算出部131と、繰り返し精度算出部132と、移動誤差算出部133と、判定部134と、を含む。
相関値算出部131は、各計測位置について、計測部12の計測結果を評価する評価値として、三次元点群データとテンプレートデータ153との相関値を算出する。相関値算出部131は、複数のテンプレートデータ153のうち三次元点群データと最も類似するテンプレートデータ153について相関値を算出する。相関値算出部131は、たとえば、特徴部分である面要素の類似度を示す相関値(面の相関値)を算出する。あるいは、相関値算出部131は、特徴部分である輪郭要素の類似度を示す相関値(輪郭の相関値)を算出してもよい。
計測部12が各計測位置についてワークWの位置姿勢の計測を複数回行なう場合、相関値算出部131は、複数回の計測から得られる相関値の代表値(たとえば平均値、中央値、最大値、最小値など)を算出してもよい。
繰り返し精度算出部132は、各計測位置について、計測部12の計測結果を評価する評価値として、複数回の計測によって得られた複数の位置姿勢のばらつきを示す繰り返し精度を算出する。繰り返し精度は、たとえば、ワークWの位置姿勢を示す座標変換行列CWのパラメータ値のばらつきを示す値(たとえば標準偏差、最大値と最小値との差など)によって表される。
移動誤差算出部133は、各計測位置について、計測部12の計測結果を評価する評価値として、移動誤差(以下、「リニアリティ」とも称する。)を算出する。移動誤差は、計測ヘッド200の基準位置から各計測位置への移動量に基づいて推定される、カメラ座標系におけるワークWの位置姿勢の第1変化量と、基準位置において計測された位置姿勢から各計測位置において計測された位置姿勢への第2変化量との差分を示す。
移動誤差算出部133は、仮想空間において、モデル位置姿勢データ155によって示される位置姿勢にワークモデルを配置するとともに、基準位置に第1仮想視点を配置する。移動誤差算出部133は、第1仮想視点からワークモデルを見たときの、ワークモデルの位置姿勢(以下、「第1位置姿勢」と称する。)を演算する。さらに、移動誤差算出部133は、仮想空間において、各計測位置に第2仮想視点を配置する。移動誤差算出部133は、第2仮想視点からワークモデルを見たときの、ワークモデルの位置姿勢(以下、「第2位置姿勢」と称する。)を演算する。移動誤差算出部133は、第1位置姿勢と第2位置姿勢との差分を第1変化量として算出する。
移動誤差算出部133は、計測部12の計測により得られた、基準位置に対応する位置姿勢と、各計測位置に対応する位置姿勢との差分を第2変化量として算出する。そして、移動誤差算出部133は、第1変化量と第2変化量との差分を移動誤差(リニアリティ)として算出する。
判定部134は、相関値、繰り替え精度および移動誤差を用いて、各計測位置におけるワークWの位置姿勢の計測結果の総合評価結果のランクを判定する。
たとえば、判定部134は、総合評価結果が3つのランクのいずれであるかを判定する。判定部134は、以下の条件(a)~(c)のいずれも満たす場合に、総合評価結果がランク「A」であると判定する。判定部134は、以下の条件(a)を満たし、条件(b),(c)の少なくとも一方を満たさない場合に、総合評価結果がランク「B」であると判定する。判定部134は、以下の条件(a)を満たさない場合に、総合評価結果がランク「C」であると判定する。
(a)相関値が予め定められた第1閾値以上である。
(b)繰り返し精度が予め定められた第2閾値以下である。
(c)移動誤差が予め定められた第3閾値以下である。
(D-5.提示部)
提示部14は、マップ生成部141と、仮想画像生成部142と、画面生成部143と、を含む。
マップ生成部141は、計測位置リスト154と評価部13による評価結果とを用いて、複数の計測位置の各々と評価結果との対応関係を示すマップを生成する。
仮想画像生成部142は、仮想空間において、モデル位置姿勢データ155によって示される位置姿勢にワークモデルを配置するとともに、指定された1つの計測位置に仮想視点を配置する。さらに、仮想画像生成部142は、仮想空間において、基準点と同じ位置に仮想基準点を配置する。それから、仮想画像生成部142は、仮想視点から仮想基準点を見たときの仮想画像を生成する。
画面生成部143は、マップを含む画面(以下、「性能レポート画面」と称する。」を生成し、性能レポート画面をディスプレイ500に表示する。画面生成部143は、マップ上において複数の計測位置から1つの計測位置の指定を受け付け、指定された計測位置に対応する仮想画像を性能レポート画面に含めてもよい。さらに、画面生成部143は、指定された計測位置に対応する三次元点群データから生成される画像(以下、「点群状態図」と称する。)を性能レポート画面に含めてもよい。点群状態図は、たとえば、距離画像であってもよい。
<E.支援処理の流れ>
図6は、支援システムにおける支援処理の流れを示すフローチャートである。図6には、画像センサコントローラ100のCPU101が行なう処理の流れが示される。
まず、CPU101は、入力装置600への入力に応じて、計測ヘッド200の移動範囲を設定する(ステップS1)。
次に、CPU101は、移動範囲内の複数の計測位置のうちの1つの計測位置を選択する(ステップS2)。CPU101は、ロボット300を用いて、選択した計測位置に計測ヘッド200を移動させる(ステップS3)。具体的には、CPU101は、選択した計測位置に計測ヘッド200を移動させるための移動指令を生成し、生成した移動指令をロボットコントローラ400に出力する。
CPU101は、計測位置に位置する計測ヘッド200の撮像により得られる撮像画像を用いて、ワークWの位置姿勢を計測する(ステップS4)。
次に、CPU101は、複数の計測位置のうち未選択の計測位置があるか判断する(ステップS5)。未選択の計測位置がある場合(ステップS5でYES)、CPU101の処理は、ステップS2に戻る。未選択の計測位置がない場合(ステップS5でNO)、CPU101の処理は、ステップS6に移る。このようにして、CPU101は、ロボット300を用いて、複数の計測位置に計測ヘッド200を順次移動させ、複数の計測位置の各々について、撮像画像を用いてワークWの位置姿勢を計測する。
ステップS6において、CPU101は、複数の計測位置の各々について、ワークWの位置姿勢の計測結果を評価する。次に、CPU101は、複数の計測位置の各々と評価結果とを対応付けたマップをディスプレイ500に提示する(ステップS7)。
<F.移動範囲の設定を支援する画面>
CPU101は、移動範囲の設定を支援する画面(以下、「設定画面」と称する。)をディスプレイ500に表示し、設定画面への入力に応じて、移動範囲に関する情報を登録する(設定する)。
図7は、移動範囲の設定を支援する画面(設定画面)の一例を示す図である。図7に示されるように、設定画面70は、領域71,76,77と、ボタン78と、を含む。領域71は、各種の情報を取得および登録するためのサブ領域72~75を含む。
サブ領域72には、キャリブレーションデータ151を取得するためのボタン72aと、キャリブレーションデータ151を登録するためのボタン72bとが表示される。さらに、サブ領域72には、取得されたキャリブレーションデータ151によって示される値(フランジ座標系をカメラ座標系に変換する座標変換行列FCのパラメータ値)が表示される。
ボタン72aがクリックされたことに応じて、CPU101は、事前に実施されたハンドアイキャリブレーションの結果を取得し、取得した結果に基づいてキャリブレーションデータ151を生成する。あるいは、CPU101は、ハンドアイキャリブレーションの実施を促す画面を表示し、当該画面への入力に応じて実施されたハンドアイキャリブレーションの結果を取得してもよい。それから、CPU101は、ハンドアイキャリブレーションの結果に基づいてキャリブレーションデータ151を生成する。
ボタン72bがクリックされたことに応じて、CPU101は、生成されたキャリブレーションデータ151を登録する。
サブ領域73には、ロボット300の現在の状態を取得するためのボタン73aと、ロボット300の動作開始位置を登録するためのボタン73bとが表示される。さらに、サブ領域73には、取得されたロボット300の現在の状態を示す値として、ロボットベース座標系におけるフランジプレート303の位置姿勢を示すパラメータ値が表示される。具体的には、サブ領域73には、ロボットベース座標系をフランジ座標系に変換する座標変換行列BFのパラメータ値が表示される。
ボタン73aがクリックされたことに応じて、CPU101は、ロボットコントローラ400から、ロボット300の現状の状態を示す情報を取得する。ロボット300の現状の状態を示す情報は、たとえば、ロボット300の各軸の回転量、フランジプレート303の位置姿勢を示すパラメータ値などを含む。CPU101は、取得した情報に基づいて、フランジプレート303の位置姿勢を示すパラメータ値をサブ領域73内に含める。
ボタン73bがクリックされたことに応じて、CPU101は、ロボット300の現状の状態を示す情報とキャリブレーションデータ151とに基づいて、計測ヘッド200の現状の位置姿勢を算出する。当該位置姿勢は、ロボットベース座標系をカメラ座標系に変換する座標変換行列BCで表される。CPU101は、算出した位置姿勢を、計測位置リスト154における番号「0」(基準位置の番号)の位置姿勢として登録する。
サブ領域74には、ワークWの位置姿勢を計測するためのボタン74aと、ワークモデルの位置姿勢を登録するためのボタン74bとが表示される。さらに、サブ領域74には、計測されたワークWの位置姿勢を示すパラメータ値が表示される。具体的には、サブ領域74には、カメラ座標系をワーク座標系に変換する座標変換行列CWのパラメータ値が表示される。あるいは、サブ領域74には、ロボットベース座標系をワーク座標系に変換する座標変換行列BWのパラメータ値が表示されてもよい。
ボタン74aがクリックされたことに応じて、CPU101は、計測ヘッド200へ投影指示および撮像指示を出力し、計測ヘッド200から撮像画像を取得する。CPU101は、取得した撮像画像に基づいて、ワークWの位置姿勢を計測する。計測されたワークWの位置姿勢は、カメラ座標系をワーク座標系に変換する座標変換行列CWで表される。CPU101は、座標変換行列CWのパラメータ値をサブ領域74内に含める。なお、CPU101は、座標変換行列CWと、ボタン73aのクリックに応じて取得した座標変換行列BFと、ボタン72aのクリックに応じて取得した座標変換行列FCとを用いて、ロボットベース座標系をワーク座標系に変換する座標変換行列BWを算出してもよい。それから、CPU101は、座標変換行列BWのパラメータ値をサブ領域74内に含めてもよい。
ボタン74bがクリックされたことに応じて、CPU101は、計測したワークWの位置姿勢をワークモデルの位置姿勢として決定する。CPU101は、決定したワークモデルの位置姿勢を示すモデル位置姿勢データ155を生成し、モデル位置姿勢データ155を登録する。モデル位置姿勢データ155は、ロボットベース座標系を基準とするデータである。
さらに、ボタン74bがクリックされたことに応じて、CPU101は、撮像画像の中心であり、かつ、ワークWの重心と同一の高さ(Z座標値)を有する点を基準点として決定する。あるいは、CPU101は、撮像画像の中心であり、かつ、計測した位置姿勢にワークモデルを重ねたときのワークモデルの原点と同一の高さ(Z座標値)を有する点を基準点として決定してもよい。
サブ領域75には、計測ヘッド200の移動範囲を設定するための入力欄75a~75cと、移動範囲を登録するためのボタン75dとが表示される。
入力欄75a,75bには、基準点を中心とし、基準点とボタン73bのクリックに応じて登録された基準位置との距離を半径とする球面における経度範囲および緯度範囲が入力される。CPU101は、当該球面において、入力欄75a,75bに入力された経度範囲および緯度範囲を移動範囲として決定する。
入力欄75cには、移動範囲を複数の領域に分割するときの分割数が入力される。CPU101は、入力欄75cに入力された分割数に応じて移動範囲を複数の領域に分割し、複数の領域に1つずつ計測位置を設定する。たとえば、CPU101は、各領域の中心または頂点を計測位置として設定する。
CPU101は、複数の計測位置について、各計測位置と当該計測位置における計測ヘッド200の姿勢との一覧を計測位置リスト154に含める。各計測位置における計測ヘッド200の姿勢は、上述したように、基準点から見たときの計測ヘッド200の姿勢が一定となるように設定される。すなわち、各計測位置における計測ヘッド200の姿勢は、基準点から見たときの基準位置の計測ヘッド200の姿勢と同一となるように設定される。各計測位置の計測ヘッド200の位置姿勢は、ロボットベース座標系をカメラ座標系に変換する座標変換行列BCで表される。
領域76には、ロボット300と計測ヘッド200とワークWとの位置関係を把握しやすいように、仮想空間にロボット300、計測ヘッド200およびワークWのモデルを配置したシミュレーション画像が表示される。CPU101は、仮想空間において、ボタン73aのクリックに応じて取得された情報に基づいて、ロボット300のモデル(ロボットモデル300M)を配置する。CPU101は、仮想空間において、キャリブレーションデータ151に基づいて、計測ヘッド200のモデル(計測ヘッドモデル200M)を配置する。CPU101は、仮想空間において、ボタン74aのクリックに応じて計測された位置姿勢に基づいて、ワークモデルWMを配置する。CPU101は、仮想空間において予め設定された視点から各モデルを見たときのシミュレーション画像を生成する。
領域77には、ボタン74aのクリックに応じて得られた撮像画像が表示される。領域77には、たとえば、均一照射条件下で撮像された撮像画像が表示される。
ユーザは、領域76,77を確認しながら、ロボットコントローラ400を操作して計測ヘッド200の位置および姿勢を調整したり、ワークWの位置を調整したりする。所望の状態に調整した後に、ユーザは、ボタン73b,74b,75dをクリックすればよい。
ボタン78のクリックに応じて、CPU101は、計測位置リスト154に従って、計測ヘッド200を複数の計測位置に順次移動させるように移動指令を生成し、生成した移動指令をロボットコントローラ400に出力する。CPU101は、各計測位置の計測ヘッド200から取得した撮像画像を用いて、ワークWの位置姿勢を計測する。
<G.性能レポート画面>
図8は、性能レポート画面の一例を示す図である。図8に示されるように、性能レポート画面80は、領域81,83~85を含む。
領域81には、複数の計測位置の各々と評価結果との対応関係を示すマップ60が表示される。さらに、領域81には、評価項目を選択するためのラジオボタン82が表示される。
CPU101は、複数の計測位置の各々とラジオボタン82によって選択された評価項目の評価結果との対応関係を示すマップ60を生成し、生成したマップ60を領域81に表示させる。
マップ60の複数の計測位置には、評価結果を示すマーク61が配置される。図8に示されるように、評価項目「総合評価」が選択された場合、CPU101は、総合評価結果がランク「A」に属する計測位置のマーク61の形状を「○」とし、総合評価結果がランク「B」に属する計測位置のマーク61の形状を「△」とし、総合評価結果がランク「C」に属する計測位置のマーク61の形状を「×」とする。これにより、ユーザは、マップ60を確認することにより、計測位置ごとの総合評価結果のランクを容易に把握できる。
複数の計測位置は、基準点を中心とし、基準点と計測ヘッド200の撮像部202との距離を半径とする球面上に位置する。そのため、図8に示されるように、マップ60は、半球状である。言い換えると、マップ60は、当該球の中心を原点とする極座標系で表される。各計測位置は、極座標系において、動径と2つの偏角とによって表される。動径は、基準点と基準位置との距離である。2つの偏角は、球面上の緯度および経度によって表される。CPU101は、マップ60が半球状であることをユーザに理解させるために、球面上の複数の経線65および複数の緯線66をマップ60に含めてもよい。これにより、ユーザは、三次元空間における複数の計測位置の位置関係を把握しやすくなる。
なお、図8に示す例では、基準位置が中心となるようにマップ60が表示される。しかしながら、CPU101は、ユーザの操作に応じて、マップ60を移動/回転させてもよい。たとえば、CPU101は、マウスのドラッグ操作に応じて、ドラッグの方向にマップ60を回転あるいは移動させる。あるいは、CPU101は、ユーザの操作に応じて、指定された回転軸を中心としてマップ60を回転させてもよい。回転軸は、基準点を通る、互いに直交する3軸の中から指定される。たとえば、CPU101は、横方向(基準点と基準位置とを結ぶ線に直交する方向)から、あるいは、斜め45°の方向(基準点と基準位置とを結ぶ線とのなす角度が45°の方向)から見たときのマップ60を提示する。これにより、ユーザは、所望の視点から見たときのマップ60を観察できる。その結果、ユーザの利便性が向上する。
さらに、図8に示されるように、CPU101は、モデル位置姿勢データ155によって示される位置姿勢のワークモデルWMをマップ60に含めてもよい。これにより、ユーザは、ワークWと各計測位置との位置関係を容易に把握できる。
評価項目として「繰り返し精度」、「リニアリティ」および「相関値」のいずれかが選択された場合、CPU101は、選択された評価項目の値に応じて、マーク61の形状を変化させる。
たとえば、評価項目「相関値」が選択された場合、CPU101は、相関値が第1閾値以上である計測位置のマーク61の形状を「○」とし、相関値が第4閾値以上第1閾値未満である計測位置のマーク61の形状を「△」とし、相関値が第4閾値未満である計測位置のマーク61の形状を「×」とする。第4閾値は、第1閾値よりも小さい。なお、相関値と比較される閾値として第1閾値が採用されるものとしたが、第1閾値とは異なる閾値を用いて、「相関値」のランクが評価されてもよい。すなわち、「相関値」のランクを決定するための閾値は、任意に設定され得る。
「繰り返し精度」および「リニアリティ」についても、予め閾値が定められており、当該閾値との比較結果に応じて、「繰り返し精度」および「リニアリティ」のランクが評価される。
評価項目「繰り返し精度」,「リニアリティ」,「相関値」,「総合評価」の各々を区分するランクの個数は、3個に限定されない。たとえば、各評価項目について、2個のランクに分類されてもよいし、4個以上のランク(たとえば5個のランク)に分類されてもよい。
CPU101は、マップ60上のいずれかのマーク61の選択を受け付ける。図8に示す例では、マーク61aが選択されている。
領域83には、マップ60上で選択されたマーク61aの計測位置に対応する評価結果が表示される。具体的には、繰り返し精度、リニアリティおよび相関値の値が表示される。さらに、領域83には、上記の条件(a)~(c)を満たすか否かの判定結果も表示される。相関値が予め定められた第1閾値以上であるという条件(a)を満たす場合、図8に示されるように、「相関値:OK」と表示される。移動誤差(リニアリティ)が予め定められた第3閾値以下であるという条件(c)を満たさない場合、図8に示されるように、「リニアリティ:NG」と表示される。
領域84には、マップ60上で選択されたマーク61aの計測位置に対応する三次元点群データから生成される点群状態図が表示される。
領域85には、マップ60上で選択されたマーク61aの計測位置に対応する仮想画像が表示される。上述したように、仮想画像は、計測位置から見たときのワークモデルを示す。そのため、仮想画像は、計測位置から見た理想的な画像に対応する。
ユーザは、領域84に表示される点群状態図と、領域85に表示される仮想画像とを比較することにより、ワークWの位置姿勢の計測結果の良否を視認できる。
<H.計測の条件設定の例>
ワークWの位置姿勢の計測の条件には、撮像条件およびサーチ条件が含まれる。撮像条件には、たとえば、投影部201からワークWに投影される照明光の強度、撮像部202のシャッタースピードおよびカメラゲインが含まれる。サーチ条件には、ワーク検出部122の検出条件(たとえば三次元点群データとテンプレートデータ153との相関値に対して設定される閾値など)が含まれる。
ユーザは、図8に示すような性能レポート画面80を確認しながら、ワークWの位置姿勢の計測の条件設定を行なう。
たとえば、ユーザは、ラジオボタン82を用いて総合評価を選択し、マップ60を確認する。半球状のマップ60の天頂を中心とした広い範囲に属する計測位置の総合評価結果がランク「A」である場合、ユーザは、計測の条件の変更が不要であると判断する。総合評価結果がランク「A」となる計測位置の分布範囲が狭い場合、または、当該分布範囲が広いが当該分布範囲内の一部にランク「B」または「C」の計測位置が存在している場合には、ユーザは、計測の条件の変更が必要であると判断する。
総合評価結果がランク「A」となる計測位置の分布範囲が狭い場合、ユーザは、たとえば、ラジオボタン82により「相関値」を選択する。これにより、ユーザは、どの範囲で相関値が小さいかを把握できる。ユーザは、相関値の小さい計測位置を指定し、領域83に表示される評価結果の詳細と、領域84に表示される点群状態図とを確認する。確認結果に応じて、ユーザは、後述する調整(A)~(C)を試みる。
総合評価結果がランク「A」となる計測位置の分布範囲内の一部にランク「B」または「C」の計測位置が存在している場合、ユーザは、総合評価結果がランク「B」または「C」の計測位置を指定する。それから、ユーザは、領域83に表示される評価結果の詳細を確認し、計測性能が低下している原因を絞り込む。ユーザは、絞り込んだ原因に応じて、以下の調整(A)~(C)を試みる。
調整(A):相関値が小さい場合、三次元点群データが不足している可能性がある。そのため、領域84に表示される点群状態図において、点群が不足している場合、照明光の強度、シャッタースピードおよびカメラゲインなどを調整することにより、相関値が向上するか確認する。
調整(B):繰り返し精度に問題がある場合(すなわち、繰り返し精度を示す値が大きい場合)、三次元点群データのうち一部が誤検出されていたり、検出漏れが発生したりしている可能性がある。そのため、領域84に表示される点群状態図において、誤検出または検出漏れが確認される場合、照明光の強度、シャッタースピードおよびカメラゲインなどを調整することにより、繰り返し精度が向上するか確認する。
調整(C):移動誤差(リニアリティ)に問題がある場合(すなわち、移動誤差が大きい場合)、三次元点群データとテンプレートデータ153とのマッチングに問題が生じている可能性がある。そのため、ユーザは、ラジオボタン82により「相関値」を選択して、ランク「A」に属する相関値とランク「B」に属する相関値との比較を行なう。比較結果に応じて、ユーザは、第1閾値が正しく設定できているかを判断する。ユーザは、第1閾値を調整することにより、移動誤差(リニアリティ)が改善できないかを検討する。第1閾値の調整だけでは移動誤差(リニアリティ)が改善されない場合、ユーザは、三次元点群データとテンプレートデータ153とのマッチングに関する他の条件(たとえば、撮像画像内のサーチ範囲、テンプレートデータ153の種類および個数など)を変更することにより、正しい候補を計測できるように改善できないかを検討する。
このように、ユーザは、性能レポート画面80を確認しながら、調整(A)~(C)を試みることにより、ワークWの位置姿勢の計測の条件を容易に設定できる。
<I.変形例>
CPU101は、マップ60において、各計測位置に表示されるマーク61の色を評価結果に応じて異ならせてもよい。この場合、マーク61の形状は、評価結果に依らず同一であってもよい。
判定部134による総合評価結果のランクの判定方法は、上記の方法に限定されない。たとえば、判定部134は、条件(a)を満たし、かつ、条件(b),(c)のうちの一方を満たす場合に、総合評価結果がランク「A」であると判定してもよい。あるいは、判定部134は、相関値が予め定められた第5閾値以上であるという条件(d)を満たす場合に、総合評価結果がランク「A」であると判定してもよい。第5閾値は、第1閾値よりも大きい。
CPU101は、マップ60の代わりに、あるいは、マップ60に加えて、計測位置と評価結果とを対応付けたリストを生成してもよい。たとえば、CPU101は、マップ60をリスト形式で内部表現したファイルを作成し、当該ファイルを保存したり、外部装置に出力したりしてもよい。CPU101は、保存しておいたファイルを読み込むことにより、マップ60を提示できる。ファイルを受けた外部装置は、ファイルを読み込むことにより、マップ60を提示できる。ファイルは、計測位置と評価結果とを対応付けたデータである。
CPU101は、保存しておいた複数のファイルを用いて、当該複数のファイルにそれぞれ対応する複数のマップ60を合成した合成マップを生成してもよい。たとえば、計測ヘッド200の移動範囲が互いに異なる複数のマップ60を合成することにより、全ての移動範囲を含む広範囲の合成マップを生成できる。初期評価および追加評価など、複数回の評価を行なったことにより複数のファイルが存在する場合であっても、複数のマップ60が1つの合成マップとして集約される。これにより、ユーザの利便性が向上する。
§3 付記
以上のように、本実施の形態は以下のような開示を含む。
(構成1)
支援システム(1)であって、
対象物(W)を撮像する撮像装置(200)と、
前記撮像装置の移動範囲を設定する設定部(11,101)と、
前記移動範囲内の複数の計測位置に前記撮像装置を順次移動させるロボット(300)と、
前記複数の計測位置の各々について、前記撮像装置の撮像により得られる撮像画像を用いて前記対象物の位置姿勢を計測する計測部(12,101)と、
前記計測部による計測結果を評価する評価部(13,101)と、
前記複数の計測位置の各々と前記評価部による評価結果との対応関係を示すマップ(60)を提示する提示部(14,101)と、を備える支援システム。
(構成2)
前記評価部は、前記評価結果を表す少なくとも1つの評価値を計算し、
前記提示部は、
前記マップ上において、前記複数の計測位置のうちの1つの計測位置の指定を受け付け、
前記1つの計測位置の指定に応じて、前記1つの計測位置に対応する前記少なくとも1つの評価値を提示する、構成1に記載の支援システム。
(構成3)
前記計測部は、前記複数の計測位置の各々に対応する前記撮像画像に基づいて、前記撮像装置の視野領域の三次元点群データを生成し、
前記提示部は、
前記マップ上において、前記複数の計測位置のうちの1つの計測位置の指定を受け付け、
前記1つの計測位置の指定に応じて、前記1つの計測位置に対応する前記三次元点群データから生成される画像を提示する、構成1に記載の支援システム。
(構成4)
前記設定部は、
前記移動範囲内の基準位置を設定し、
前記基準位置に対応する前記撮像画像から計測される前記対象物の位置姿勢と一致するように、前記対象物のモデルの位置姿勢を登録し、
前記提示部は、
前記1つの計測位置の指定に応じて、前記1つの計測位置から見たときの前記モデルの仮想画像を生成し、
前記仮想画像を提示する、構成3に記載の支援システム。
(構成5)
前記計測部は、
前記撮像画像に基づいて、前記撮像装置の視野領域の三次元点群データを生成し、
前記三次元点群データとテンプレートデータとの照合に基づいて前記位置姿勢を計測し、
前記少なくとも1つの評価値は、前記三次元点群データと前記テンプレートデータとの相関値を含む、構成2に記載の支援システム。
(構成6)
前記計測部は、前記複数の計測位置の各々について、複数回の計測を行ない、
前記少なくとも1つの評価値は、前記複数回の計測の繰り返し精度を示す値を含む、構成2または5に記載の支援システム。
(構成7)
前記複数の計測位置は、基準位置を含み、
前記計測部は、前記撮像装置を基準とするカメラ座標系における前記対象物の位置姿勢を計測し、
前記少なくとも1つの評価値は、前記複数の計測位置の各々について、前記基準位置からの移動量に基づいて推定される、前記カメラ座標系における前記対象物の位置姿勢の第1変化量と、前記基準位置において計測された位置姿勢から当該計測位置において計測された位置姿勢への第2変化量との差分を示す値を含む、構成2、5および6のいずれかに記載の支援システム。
(構成8)
前記複数の計測位置は、同一の球面上に存在し、
前記マップは、前記球の中心を原点とする極座標系で表される、構成1から7のいずれか1項に記載の支援システム。
(構成9)
画像処理装置(100)であって、
対象物(W)を撮像する撮像装置の移動範囲を設定する設定部(11,101)と、
前記移動範囲内の複数の計測位置の各々について、当該計測位置に位置する前記撮像装置(200)から得られる撮像画像を用いて前記対象物の位置姿勢を計測する計測部(12,101)と、
前記計測部による計測結果を評価する評価部(13,101)と、
前記複数の計測位置の各々と前記評価部による評価結果との対応関係を示すマップ(60)を提示する提示部(14,101)と、を備える画像処理装置。
(構成10)
支援方法であって、
対象物(W)を撮像する撮像装置(200)の移動範囲を設定するステップと、
ロボットを用いて、前記移動範囲内の複数の計測位置に前記撮像装置を順次移動させるステップと、
前記複数の計測位置の各々について、前記撮像装置の撮像により得られる撮像画像を用いて前記対象物の位置姿勢を計測するステップと、
前記位置姿勢の計測結果を評価するステップと、
前記複数の計測位置の各々と評価結果との対応関係を示すマップを提示するステップと、を備える支援方法。
(構成11)
構成10に記載の支援方法をコンピュータに実行させるプログラム。
本発明の実施の形態について説明したが、今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 支援システム、11 設定部、12 計測部、13 評価部、14 提示部、15 記憶部、60 マップ、61,61a マーク、65 経線、66 緯線、70 設定画面、71,76,77,81,83~85 領域、72~75 サブ領域、72a,72b,73a,73b,74a,74b,75d,78 ボタン、75a~75c 入力欄、80 性能レポート画面、82 ラジオボタン、100 画像センサコントローラ、101 CPU、102 メインメモリ、103 ハードディスク、104 計測ヘッドインターフェース、104a 画像バッファ、105 入力インターフェース、106 表示コントローラ、107 通信インターフェース、108 データリーダ/ライタ、109 バス、111 移動範囲決定部、112 登録部、113 移動指令部、121 点群データ生成部、122 ワーク検出部、131 相関値算出部、132 繰り返し精度算出部、133 移動誤差算出部、134 判定部、141 マップ生成部、142 仮想画像生成部、143 画面生成部、151 キャリブレーションデータ、152 ワーク形状データ、153 テンプレートデータ、154 計測位置リスト、155 モデル位置姿勢データ、200 計測ヘッド、200M 計測ヘッドモデル、201 投影部、202 撮像部、300 ロボット、300M ロボットモデル、301 多関節アーム、302 ベース、303 フランジプレート、304 エンドエフェクタ、305 支持部材、400 ロボットコントローラ、500 ディスプレイ、600 入力装置、700 メモリカード、W ワーク、WM ワークモデル。

Claims (11)

  1. 支援システムであって、
    対象物を撮像する撮像装置と、
    前記撮像装置の移動範囲を設定する設定部と、
    前記移動範囲内の複数の計測位置に前記撮像装置を順次移動させるロボットと、
    前記複数の計測位置の各々について、前記撮像装置の撮像により得られる撮像画像を用いて前記対象物の位置姿勢を計測する計測部と、
    前記計測部による計測結果を評価する評価部と、
    前記複数の計測位置の各々と前記評価部による評価結果との対応関係を示すマップを提示する提示部と、を備える支援システム。
  2. 前記評価部は、前記評価結果を表す少なくとも1つの評価値を計算し、
    前記提示部は、
    前記マップ上において、前記複数の計測位置のうちの1つの計測位置の指定を受け付け、
    前記1つの計測位置の指定に応じて、前記1つの計測位置に対応する前記少なくとも1つの評価値を提示する、請求項1に記載の支援システム。
  3. 前記計測部は、前記複数の計測位置の各々に対応する前記撮像画像に基づいて、前記撮像装置の視野領域の三次元点群データを生成し、
    前記提示部は、
    前記マップ上において、前記複数の計測位置のうちの1つの計測位置の指定を受け付け、
    前記1つの計測位置の指定に応じて、前記1つの計測位置に対応する前記三次元点群データから生成される画像を提示する、請求項1に記載の支援システム。
  4. 前記設定部は、
    前記移動範囲内の基準位置を設定し、
    前記基準位置に対応する前記撮像画像から計測される前記対象物の位置姿勢と一致するように、前記対象物のモデルの位置姿勢を登録し、
    前記提示部は、
    前記1つの計測位置の指定に応じて、前記1つの計測位置から見たときの前記モデルの仮想画像を生成し、
    前記仮想画像を提示する、請求項3に記載の支援システム。
  5. 前記計測部は、
    前記撮像画像に基づいて、前記撮像装置の視野領域の三次元点群データを生成し、
    前記三次元点群データとテンプレートデータとに基づいて前記位置姿勢を計測し、
    前記少なくとも1つの評価値は、前記三次元点群データと前記テンプレートデータとの相関値を含む、請求項2に記載の支援システム。
  6. 前記計測部は、前記複数の計測位置の各々について、複数回の計測を行ない、
    前記少なくとも1つの評価値は、前記複数回の計測の繰り返し精度を示す値を含む、請求項2または5に記載の支援システム。
  7. 前記複数の計測位置は、基準位置を含み、
    前記計測部は、前記撮像装置を基準とするカメラ座標系における前記対象物の位置姿勢を計測し、
    前記少なくとも1つの評価値は、前記複数の計測位置の各々について、前記基準位置からの移動量に基づいて推定される、前記カメラ座標系における前記対象物の位置姿勢の第1変化量と、前記基準位置において計測された位置姿勢から当該計測位置において計測された位置姿勢への第2変化量との差分を示す値を含む、請求項2、5および6のいずれか1項に記載の支援システム。
  8. 前記複数の計測位置は、同一の球面上に存在し、
    前記マップは、前記球の中心を原点とする極座標系で表される、請求項1から7のいずれか1項に記載の支援システム。
  9. 画像処理装置であって、
    対象物を撮像する撮像装置の移動範囲を設定する設定部と、
    前記移動範囲内の複数の計測位置の各々について、当該計測位置に位置する前記撮像装置から得られる撮像画像を用いて前記対象物の位置姿勢を計測する計測部と、
    前記計測部による計測結果を評価する評価部と、
    前記複数の計測位置の各々と前記評価部による評価結果との対応関係を示すマップを提示する提示部と、を備える画像処理装置。
  10. 支援方法であって、
    対象物を撮像する撮像装置の移動範囲を設定するステップと、
    ロボットを用いて、前記移動範囲内の複数の計測位置に前記撮像装置を順次移動させるステップと、
    前記複数の計測位置の各々について、前記撮像装置の撮像により得られる撮像画像を用いて前記対象物の位置姿勢を計測するステップと、
    前記位置姿勢の計測結果を評価するステップと、
    前記複数の計測位置の各々と評価結果との対応関係を示すマップを提示するステップと、を備える支援方法。
  11. 請求項10に記載の支援方法をコンピュータに実行させるプログラム。
JP2021020864A 2021-02-12 2021-02-12 支援システム、画像処理装置、支援方法およびプログラム Active JP7533265B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021020864A JP7533265B2 (ja) 2021-02-12 2021-02-12 支援システム、画像処理装置、支援方法およびプログラム
EP21925720.1A EP4292777A1 (en) 2021-02-12 2021-03-10 Assistance system, image processing device, assistance method and program
PCT/JP2021/009562 WO2022172471A1 (ja) 2021-02-12 2021-03-10 支援システム、画像処理装置、支援方法およびプログラム
US18/274,357 US20240083038A1 (en) 2021-02-12 2021-03-10 Assistance system, image processing device, assistance method and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021020864A JP7533265B2 (ja) 2021-02-12 2021-02-12 支援システム、画像処理装置、支援方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2022123510A JP2022123510A (ja) 2022-08-24
JP7533265B2 true JP7533265B2 (ja) 2024-08-14

Family

ID=82837631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021020864A Active JP7533265B2 (ja) 2021-02-12 2021-02-12 支援システム、画像処理装置、支援方法およびプログラム

Country Status (4)

Country Link
US (1) US20240083038A1 (ja)
EP (1) EP4292777A1 (ja)
JP (1) JP7533265B2 (ja)
WO (1) WO2022172471A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185239A (ja) 2018-04-05 2019-10-24 オムロン株式会社 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法
JP2020163502A (ja) 2019-03-28 2020-10-08 セイコーエプソン株式会社 物体検出方法、物体検出装置およびロボットシステム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3666108B2 (ja) * 1995-03-16 2005-06-29 株式会社デンソー 外観検査装置
JP6879238B2 (ja) 2018-03-13 2021-06-02 オムロン株式会社 ワークピッキング装置及びワークピッキング方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185239A (ja) 2018-04-05 2019-10-24 オムロン株式会社 物体認識処理装置及び方法、並びに、物体ピッキング装置及び方法
JP2020163502A (ja) 2019-03-28 2020-10-08 セイコーエプソン株式会社 物体検出方法、物体検出装置およびロボットシステム

Also Published As

Publication number Publication date
JP2022123510A (ja) 2022-08-24
US20240083038A1 (en) 2024-03-14
WO2022172471A1 (ja) 2022-08-18
EP4292777A1 (en) 2023-12-20

Similar Documents

Publication Publication Date Title
JP5746477B2 (ja) モデル生成装置、3次元計測装置、それらの制御方法及びプログラム
US9672630B2 (en) Contour line measurement apparatus and robot system
JP6594129B2 (ja) 情報処理装置、情報処理方法、プログラム
JP3859574B2 (ja) 3次元視覚センサ
JP6271953B2 (ja) 画像処理装置、画像処理方法
JP5624394B2 (ja) 位置姿勢計測装置、その計測処理方法及びプログラム
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
US10279473B2 (en) Image processing device, image processing method, and computer program
JP6740033B2 (ja) 情報処理装置、計測システム、情報処理方法及びプログラム
US20140018957A1 (en) Robot system, robot, robot control device, robot control method, and robot control program
GB2512460A (en) Position and orientation measuring apparatus, information processing apparatus and information processing method
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
JP2016170050A (ja) 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム
JPWO2018043524A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP2020179441A (ja) 制御システム、情報処理装置および制御方法
JP2009175012A (ja) 計測装置および計測方法
JP2021079464A (ja) 設定装置、設定方法およびプログラム
JP2018173882A (ja) 情報処理装置、方法、及びプログラム
JP7439410B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP7533265B2 (ja) 支援システム、画像処理装置、支援方法およびプログラム
JP3516668B2 (ja) 3次元形状認識方法、装置およびプログラム
Karan Accuracy improvements of consumer-grade 3D sensors for robotic applications
CN115082550A (zh) 从对象的相机图像中定位对象的位置的设备和方法
JP2022163836A (ja) ロボット画像の表示方法、コンピュータープログラム、及び、ロボット画像の表示システム
US20230154162A1 (en) Method For Generating Training Data Used To Learn Machine Learning Model, System, And Non-Transitory Computer-Readable Storage Medium Storing Computer Program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240715

R150 Certificate of patent or registration of utility model

Ref document number: 7533265

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150