JP2024072429A - 画像処理装置、画像処理方法、ロボットシステム、物品の製造方法、撮像装置、撮像装置の制御方法、プログラム及び記録媒体 - Google Patents

画像処理装置、画像処理方法、ロボットシステム、物品の製造方法、撮像装置、撮像装置の制御方法、プログラム及び記録媒体 Download PDF

Info

Publication number
JP2024072429A
JP2024072429A JP2022183236A JP2022183236A JP2024072429A JP 2024072429 A JP2024072429 A JP 2024072429A JP 2022183236 A JP2022183236 A JP 2022183236A JP 2022183236 A JP2022183236 A JP 2022183236A JP 2024072429 A JP2024072429 A JP 2024072429A
Authority
JP
Japan
Prior art keywords
image processing
point cloud
processing device
workpiece
density
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022183236A
Other languages
English (en)
Inventor
真史 山本
圭介 村川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022183236A priority Critical patent/JP2024072429A/ja
Publication of JP2024072429A publication Critical patent/JP2024072429A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

Figure 2024072429000001
【課題】 ワークの位置または姿勢の取得に要する処理時間を低減する。
【解決手段】 ワークを撮像する撮像部により前記ワークの画像の処理する画像処理装置であって、処理部が、前記画像において第1密度の点群を設定し、前記第1密度の点群に基づき前記ワークが存在する領域を特定し、前記領域において前記第1密度よりも高い第2密度の点群を設定し、前記第2密度の点群に基づき前記ワークの位置または姿勢に関する情報を取得する、ことを特徴とする画像処理装置を採用した。
【選択図】 図4

Description

本発明は、ロボット及び画像処理に関するものである。
生産ラインにおいて、カメラや認識アルゴリズムを用いたロボットによるロボットビジョンを用いた作業の自動化が模索されている。ロボットビジョンの分野では認識対象とするワークの位置姿勢を精密に推定するために、ワークの三次元の点群情報を取得する三次元測定装置が広く用いられている。しかし、これらの三次元測定装置では、測定領域内の点群情報をすべて算出(取得)するまでワークの位置姿勢推定の処理が開始できないため、全体の処理時間が長くなる傾向にある。
処理時間を短縮する手段の例として、下記特許文献1には、カラー画像を用いてワークの存在する領域を抽出し、その領域に存在する距離分布情報を用いてワークの位置姿勢推定を実行することで、位置姿勢推定の処理時間を低減する手法が記載されている。また、下記特許文献2には、二次元画像から求められた二次元位置情報または三次元空間上の視線を用いて三次元点群の領域を制限し、制限された点群からワークの位置姿勢推定を実行することで位置姿勢推定の処理時間を低減する手法が記載されている。
特開2018-128897号公報 特開2013-101045号公報
しかしながら、特許文献1および特許文献2の手法では、一度、測定領域全体に対して三次元測定を実行した後に対象領域を抽出し、その後、ワークの位置姿勢推定を開始している。そのため、ワークの三次元の点群情報を取得する三次元測定そのものの処理に要する時間については短縮することができておらず、ワークの位置または姿勢の取得にかかる処理時間のさらなる短縮の余地がある。
本発明は、ワークの位置または姿勢の取得に要する処理時間を低減する。
本発明は、ワークを撮像する撮像部により前記ワークの画像の処理する画像処理装置であって、処理部が、前記画像において第1密度の点群を設定し、前記第1密度の点群に基づき前記ワークが存在する領域を特定し、前記領域において前記第1密度よりも高い第2密度の点群を設定し、前記第2密度の点群に基づき前記ワークの位置または姿勢に関する情報を取得する、ことを特徴とする画像処理装置を採用した。
本発明によれば、ワークの位置または姿勢の取得に要する処理時間を低減することができる。
実施形態におけるロボットシステム200の概略図である。 実施形態における画像処理装置201の概略図である。 実施形態における画像処理装置201とロボットコントローラ210の制御ブロック図である。 実施形態における制御フローチャートである。 実施形態における制御フローチャートである。 実施形態における制御フローチャートである。 実施形態における効果を説明するための図である。 実施形態における表示形態の例図である。 実施形態における表示形態の例図である。 実施形態における表示形態の例図である。 実施形態における表示形態の例図である。 実施形態における表示形態の例図である。 実施形態における制御フローチャートである。 実施形態における制御フローチャートである。
以下、添付図面に示す実施形態を参照して本発明を実施するための形態につき説明する。なお、以下に示す実施形態はあくまでも一例であり、例えば細部の構成については本発明の趣旨を逸脱しない範囲において当業者が適宜変更することができる。また、本実施形態で取り上げる数値は、参考数値であって、本発明を限定するものではない。なお以下の図面において、図中の矢印X、Y、Zはロボットシステムの全体の座標系を示す。一般に、XYZ3次元座標系は、設置環境全体のワールド座標系を示す。その他、制御の都合などによって、ロボットハンド、指部、関節などに関して適宜ローカル座標系を用いる場合がある。
(第1の実施形態)
図1は、第1実施形態に係るロボットシステム200の概略構成を示す説明図である。ロボットシステム200は、ロボット(ロボットマニピュレータ)202と、画像処理装置201と、制御装置の一例であるロボットコントローラ210と、撮像装置と、を備える。ロボット202は、産業用ロボットであり、生産ラインに配置され、物品の製造に用いられる。
ロボット202は、マニピュレータであり、ロボットハンド211を備えている。ロボット202の周囲には、上部が開口した容器207と、載置台208とが配置される。容器207内には、複数のワーク206がばら積みされる。各ワーク206は、例えば部品である。容器207内の複数のワーク206が1つずつロボット202によって保持され、載置台208上の所定位置へと搬送される。複数のワーク206は、互いに同一の形状、同一の大きさ、同一の色であり、容器207内にランダムに配置される。
ロボット202とロボットコントローラ210とは、通信可能に配線で接続されている。ロボットコントローラ210と画像処理装置201とは、通信可能に配線で接続されている。また撮像部203、204からなるステレオカメラと照射部205と画像処理装置201とは、通信可能に有線接続又は無線接続されている。
ロボット202は、ロボットアーム212と、ロボットハンド211、即ち保持機構の一例であるロボットハンドと、を有する。ロボットアーム212は、垂直多関節のロボットアームである。ロボットハンド211は、ロボットアーム212に支持されている。
ロボットハンド211は、ロボットアーム212の所定部位、例えばロボットアーム212の先端部に取り付けられている。ロボットハンド211は、ワーク206を保持可能に構成されている。なお、保持機構がロボットハンである場合について説明するが、これに限定するものではなく、例えば保持機構がワークを吸着することによってワークを保持可能な吸着機構であってもよい。本実施形態では、ロボットハンド211は、ワークWを把持可能に構成されている。
以上の構成により、ロボットアーム212によりロボットハンド211を任意の位置に動作させ、所望の作業を行わせることができる。例えば、材料としてワーク206と他のワークとを用い、ワーク206と他のワークとを組み付ける処理を行うことで、成果物として組付けワークを製造することができる。以上によりロボット202によって物品の製造を行うことができる。なお本実施形態ではロボット202によるワークの組付けによる物品の製造を例に取り説明したがこれに限られない。例えば、ロボットアーム212のエンドエフェクタとして切削工具や研磨工具などのツールを設け、ワークを加工することで物品の製造を行っても構わない。
また、ロボット202には、互いに光学的に校正された撮像部203、204からなるステレオカメラが搭載され、ステレオカメラの共通視野内に任意のパターンを照射する照射部205が設置されている。撮像部203、204および照射部205は画像処理装置201と接続されている。そして、画像処理装置201は照射部205の照射パターンの設定、撮像部204、205の各種パラメータの設定および撮像データの受信を行うとともに、三次元点群の算出処理および対象ワークの位置およびまたは姿勢の推定処理を行う。
図1では撮像部203、204および照射部205をロボット202に設置しているが、容器207上空の俯瞰位置209に別のカメラを設置してワーク206のおよその位置を測定し、ロボット202の移動に用いてもよい。また、俯瞰位置209からの測定手段は二次元画像、三次元点群によるものを問わない。また、撮像部203、204および照射部205を俯瞰位置209に固定してもよい。その場合、ロボット202が載置台208上空に移動している間に撮像およびワーク認識が可能であるため、サイクルタイムの面で有利である。
ただし、ロボット202上に設置した場合と比較して、撮像部のレンズ先端からワーク表面までのワークディスタンスが長くなるため、同じ焦点距離のレンズを使用すると視野は広がる一方、空間分解能は低下し、ワークの認識精度は低下する。あるいは、撮像部203、204および照射部205を、ロボット202上と俯瞰位置209の2カ所に設置し、それぞれの位置から三次元測定を実施してワークの位置およびまたは姿勢を推定する方式としてもよい。
照射部205は任意のパターンを照射できるものであれば方式は問わず、DLP(Digital Light Processing)プロジェクタや液晶プロジェクタ、あるいはパターンを描画したマスクを用いてパターン光を投影する装置でもよい。撮像部204、205としてはカメラを用いるが、取得画像はモノクロ画像、カラー画像を問わない。また、照射、撮像する光は可視光に限定されるものではなく、例えば赤外光を照射、撮像することで、可視光による外乱の影響を回避する実施形態も可能である。
撮像部204、205は、ロボット202の所定部位、例えばロボットハンド211に取り付けられることで、ロボット202に支持されている。撮像部204、205の撮像位置、即ち撮像部204、205に撮像される撮像領域は、ロボット202の姿勢に応じて自在に変えることができる。具体的には、撮像部204、205は、ロボット202の動作によって、容器207にばら積みされた複数のワーク206に対して、撮像部204、205よりも近接した位置に移動可能である。そして、撮像部204、205は、ロボット202の動作によって、複数のワーク206のうち、ロボット202に保持させる対象物であるワーク206の上空に移動可能である。
画像処理装置201は、第1実施形態ではコンピュータで構成されている。画像処理装置201は、撮像部203、204、照射部205に撮像指令を送って撮像部203、204に撮像を行わせることができる。画像処理装置201は、撮像部203、204によって生成された画像を取得可能に構成されており、取得した画像を処理可能に構成されている。図2は、第1実施形態に係る画像処理装置201の説明図である。画像処理装置201は、本体201aと、本体201aに接続された表示装置(表示部)の一例であるディスプレイ201bと、本体201aに接続された入力装置の一例であるキーボード201c及びマウス201dと、を有する。ここで、画像処理装置201としては例えばロボット外部のパーソナルコンピュータを用いて、モニタに情報を表示してキーボードやマウスなどの入力装置を介して操作することを例に取り説明した。しかしながら、プロセッサおよび記憶部をロボット内部または外部に備えて一体としてもよい。
図3は、第1実施形態に係る画像処理装置201、ロボットコントローラ210におけるコンピュータシステムのブロック図である。画像処理装置201の本体201aは、プロセッサの一例であるCPU(Central Processing Unit)201eを備える。CPU201eは、画像処理部の一例である。また、本体201aは、記憶部として、ROM(Read Only Memory)201f、RAM(Random Access Memory)201g、及びHDD(Hard Disk Drive)201hを備える。また、本体201aは、記録ディスクドライブ201j、及び入出力インタフェースであるインタフェース201kを備える。CPU201e、ROM201f、RAM201g、HDD201h、記録ディスクドライブ201j、及びインタフェース201kは、互いに通信可能にバスで接続されている。
ROM201fには、コンピュータの動作に関する基本プログラムが格納されている。RAM201gは、CPU201eの演算処理結果等、各種データを一時的に記憶する記憶装置である。HDD201hには、CPU201eの演算処理結果や外部から取得した各種データ等が記録されると共に、CPU201eに、各種処理を実行させるためのプログラム201mが記録されている。プログラム201mは、CPU201eが実行可能なアプリケーションソフトウェアである。
CPU201eは、HDD201hに記録されたプログラム201mを実行することで、後述する画像処理を実行することが可能となる。記録ディスクドライブ201jは、記録ディスク201iに記録された各種データやプログラム等を読み出すことができる。
なお、第1実施形態では、コンピュータによって読み取り可能な非一時的な記録媒体がHDD201hであり、HDD201hにプログラム201mが記録されているが、これに限定するものではない。プログラム201mは、コンピュータによって読み取り可能な非一時的な記録媒体であれば、いかなる記録媒体に記録されていてもよい。プログラム201mをコンピュータに供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、磁気テープ、不揮発性メモリ等を用いることができる。またSSD(Solid State Drive)を用いても構わない。
ロボットコントローラ210は、プロセッサの一例であるCPU210eを備える。CPU210eは、制御部の一例である。また、CPU210eは、記憶部として、ROM210f、RAM210g、及びHDD210hを備える。また、ロボットコントローラ210は、記録ディスクドライブ210j、及び入出力インタフェースであるインタフェース210kを備える。CPU210e、ROM210f、RAM210g、HDD210h、記録ディスクドライブ210j、及びインタフェース210kは、互いに通信可能にバスで接続されている。
ROM210fには、コンピュータの動作に関する基本プログラムが格納されている。RAM210gは、CPU210eの演算処理結果等、各種データを一時的に記憶する記憶装置である。HDD210hには、CPU210eの演算処理結果や外部から取得した各種データ等が記録されると共に、CPU210eに、各種処理を実行させるためのプログラム210mが記録(格納)されている。プログラム210mは、CPU210eが実行可能なアプリケーションソフトウェアである。
CPU210eは、HDD210hに記録されたプログラム210mを実行することで制御処理を実行し、図1のロボット202の動作を制御することが可能となる。記録ディスクドライブ210jは、記録ディスク210iに記録された各種データやプログラム等を読み出すことができる。
なお、本実施形態では、コンピュータによって読み取り可能な非一時的な記録媒体がHDD210hであり、HDD210hにプログラム210mが記録されているが、これに限定するものではない。プログラム210mは、コンピュータによって読み取り可能な非一時的な記録媒体であれば、いかなる記録媒体に記録されていてもよい。プログラム210mをコンピュータに供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、磁気テープ、不揮発性メモリ等を用いることができる。またSSDを用いても構わない。
なお、本実施形態では、画像処理及び制御処理を複数のコンピュータ、即ち複数のCPU201e,210eで実行するが、これに限定するものではない。画像処理及び制御処理を1つのコンピュータ、即ち1つのCPUで実行するようにしてもよい。この場合、1つのCPUが画像処理部及び制御部として機能するように構成すればよい。
CPU201eは、プログラム201mを実行することにより、複数のワーク206が存在する領域を、撮像部203、204、照射部205を用いて撮像させ、その撮像により得られた画像から取出し可能なワーク206を検出するよう機能する。即ち、CPU201eは、取出し可能なワーク206に対応するワーク画像を含む所定領域を特定するよう機能する。以下、この所定領域を探索領域と呼ぶ。また、CPU251は、プログラム261を実行することにより、探索領域に対応する実空間の領域をカメラ402に撮像させ、画像処理の一例であるパターンマッチング処理によってワークWの位置及び姿勢を計測するよう機能する。
CPU210eは、プログラム210mを実行することにより、ロボット202を制御して、撮像部203、204、照射部205を実空間の所定位置へ移動させるよう機能する。また、CPU210eは、プログラム210mを実行することにより、CPU210eにより計測されたワーク206を保持する位置へロボットハンド211を移動させるよう機能する。また、CPU210eは、プログラム210mを実行することにより、ロボットハンド211にワーク206を保持させ、載置台208へワーク206を移載させるよう機能する。
次に本実施形態における大まかな制御フローについて述べる。図4は本実施形態における大まかな制御フローチャートである。なお本実施形態における制御フローは、画像処理装置201が有するCPU201e、ロボットコントローラ210が有するCPU210eが各処理を実行し、互いに通信することで実行されるものとする。本実施形態の処理フローは、第1密度の点群の生成およびモデルとのマッチングを行う第1段階と、第2密度の点群の生成およびモデルとのマッチングを行う第2段階に分けられる。
図4より、第一段階では、ステップS100において、撮像部203、205、照射部205を用いて取得した画像データを取得する。そして、ステップS101において取得した画像データに基づき第1密度の点群を生成する。そしてS102では、ステップS101で得られた第1密度の点群を用いて、対象ワークのおおよその位置およびまたは姿勢を推定する概略マッチングを実行する。
続く第2段階では、ステップS103において、ステップS102で推定した対象ワークのおおよその位置およびまたは姿勢に基づき、画像データにおいて対象ワークを含む領域を制限(抽出)する。そしてステップS104において、ステップS103で制限した領域において、第1密度よりも高密度な第2密度の点群を生成する。その後ステップS105において第2密度の点群を用いて対象ワークの詳細な位置およびまたは姿勢を推定する詳細マッチングを実行する。そしてステップS106にて、ステップS105の詳細マッチングの結果に基づき、対象ワークの位置およびまたは姿勢推定結果を取得する。
ここで、第1密度の点群とは、点群を構成する点同士の間隔が大きい比較的低密度な点群であり、第2密度の点群とは、第1密度よりも間隔の小さい高密度の点群を指す。また、本実施形態におけるマッチングとは、ワークの既知のCADモデルから作成した基準モデルと、画像データに基づく点群等の取得データを照合し、その一致度が高くなる位置およびまたは姿勢を算出することを指す。また、マッチングの際に三次元点群のエッジ情報を抽出してワークの特徴を捉え、誤マッチングの可能性を軽減してもよい。あるいは、左右いずれかの撮像部から取得した二次元画像のエッジ情報を用いることによってワークの特徴を捉え、誤マッチングの可能性を軽減してもよい。
また本実施形態では、ある撮像部からの取得画像中の画素値と別の撮像部からの取得画像中の画素値、あるいは照射画像中の画素値を対応点付けして三角測量の原理で点群を生成する。その際に、低密度の点群に基づき対象ワークのおおよその位置およびまたは姿勢を推定し対象ワークが存在する領域を抽出する。そして抽出した領域で高密度の点群に基づく詳細なマッチングを行うことで、対象ワークの位置およびまたは姿勢を取得する際の計算量を低減する。したがって、撮像部と照射部の組み合わせは、図1の2つの撮像部と1つの照射部に限定されるものではなく、互いに校正された1つの撮像部と1つの照射部、あるいは互いに校正された複数の撮像部と複数の照射部として実施しても構わない。
図5は本実施形態における詳細な制御フローチャートである。お本実施形態における制御フローは、画像処理装置201が有するCPU201e、ロボットコントローラ210が有するCPU210eが各処理を実行し、互いに通信することで実行されるものとする。本実施形態では三次元点群の生成にグレイコードパターンを用いた空間コード化法を実行するものとし、撮像と点群生成のステップを分割する。
図5より、第1段階として、ステップS300において、ロボット202を制御して、照射部205からグレイコードパターンをワーク206に照射する。次にステップS301において各パターン照射時におけるワーク206の画像を左右の撮像部203、204より取得する。そしてステップS302にて、設定されたパターンの撮影が全て完了するまで画像の取得を繰り返す。この際、全てのグレイコードパターンを照射するのではなく、例えば、最終的に計16パターンを照射するのであればここでは12パターンを照射するといったように、第1密度の点群を生成するのに必要とするパターンを照射する。
次にステップS303において、一般的な空間コード化法の手法に従い、取得した左右の画像を明暗で二値化して最上位ビットから順に二進数で表現することで、左右のコード画像をそれぞれ1枚ずつ生成する。本実施形態ではネガポジ反転したパターンを照射し、二値化処理の際に撮影画像の差分をとることで明暗の境界を強調し、最終的に計16枚の撮影画像から8ビットのコード画像を生成する場合を例にとる。したがって第1段階では、12パターンの撮影画像から上位6ビットが入力されたコード画像が得られる。ただし、反転画像を用いずに、最終的に計8パターンの各撮影画像と、パターンを照射していない撮影画像との差分から8ビットのコード画像を生成する実施形態も可能である。
コード画像が得られた後、ステップS304において、コード画像中の画素値が変化する境界を抽出して左右画像を対応点付けし、三角測量の原理で測距することで第1密度の比較的低密度な点群を生成する。
次にステップS305において、ワーク206の既知のCADモデルから作成した基準モデルを取得点群に対して照合し、対象とするワーク206の三次元の位置およびまたは姿勢を算出する。これにより、第1段階におけるマッチング結果を取得し、概略マッチング結果とする。この第1段階が完了した時点で、対象とするワーク206のおおよその位置およびまたは姿勢が算出される。また、三次元の点群情報を用いているため、画面奥行き方向や、各軸回りの回転方向について、二次元画像を用いた場合と比較して高精度な位置およびまたは姿勢を推定が可能となる。
次に第二段階として、ステップS306において、第1段階で使用しなかったパターンをワーク206に照射し、ステップS307において左右の撮像部より画像を取得する。本実施形態では、ステップS308より、ステップS306、307操作を残る4パターンの照射と撮像が完了するまで繰り返す。
4パターンの取得画像をステップS309において二値化し、第1段階で生成したステップS304の残る下位ビットに入力することで重畳すると、第1段階よりも細かい、8ビットの左右のコード画像が生成される。
次にステップS310では、第1段階におけるマッチング結果を用いて、対象とするワーク206が存在すると推定される領域を絞り込む。そして、ステップS311において、絞り込んだ領域において、左右のコード画像の視差を用いて第1密度の点群よりも高密度な第2密度の三次元点群を生成する。この際、第1密度の点群を算出する際に用いなかった画素値の境界でのみ測距処理を行うことで、第1段階と重複した算出処理を避けることができる。つまり概略マッチングにより特定された領域に基づく三次元空間を、詳細マッチングを施す探索範囲として制限する。このようにして、対象とするワーク206が存在すると推定される領域に対しては、第1密度の点群に付加して高密度な第2密度の点群が生成される。
そしてステップS312にて、得られた第2密度の生成点群に対してワーク206の基準モデルを照合する詳細マッチングを行い、概略マッチング結果を修正する。この算出の際は、対象となるワーク206の位置およびまたは姿勢の推定値の初期値として第1段階の概略マッチング結果を設定することで、詳細マッチングにおける計算量を低減する。
ここで、図6を用いて本実施形態と比較例との比較結果について詳述する。図6は、本実施形態を用いない場合の空間コード化法を用いた制御フローチャートの一例を示している。第1段階、第2段階を分けずに三次元測定を行う場合には、図6より、ステップS400、ステップS401およびステップS402において、パターンを対象ワークに対して照射し、画像を取得する操作をすべてのパターン分が完了するまで繰り返す。
次にステップS403において、取得した左右の画像から左右のコード画像をそれぞれ1枚ずつ生成し、すべての照射パターンを用いたコード化画像が生成される。その後、図5と同様にステップS404において点群を生成することで、撮影領域全体(画像データ全体)で高密度の点群が生成される。
この高密度の点群すべてを用いて位置およびまたは姿勢の推定を行うと処理時間が長くなるため、S405で一度点群に対してサンプリング処理を行って概略マッチングを実行する。そしてステップS406にて、ステップS405によるマッチング結果を初期値として、すべての点群(サンプリングを施していない点群)を用いたマッチングを行い、対象ワークの位置およびまたは姿勢推定結果を得る。
図7は、本実施形態と比較例との比較結果の詳細を示す図である。図7より、パターンの照射および撮像、画像のコード化の部分においては、処理時間に差はない。一方で、点群生成とマッチングについては処理時間に差が生じており、本実施形態の方が、処理時間が短縮されていることが分かる。これには以下の3つの要因がある。
1つ目の要因は、本実施形態では、概略マッチング結果を用いてワークが存在すると推定される領域で高密度の点群の生成を限定しているためである。そのため、計算対象の画素が減少し、かつ測距を行う奥行き方向の範囲についても制限できる。
2つ目の要因は、本実施形態では、詳細マッチングの際、高密度の点群はワークの存在する領域とその周辺に存在するため、計算処理の負担が軽減されるためである。
3つ目の要因は、本実施形態では、第1段階で低密度な点群を生成することで、点群のサンプリング処理を行わなくてよいためである。
また、本実施形態の制御フローにおいてさらに処理時間を短縮する手法としては、第2段階における撮像の際、概略マッチング結果をもとに、撮像部がワークの存在する領域に対応する一部の画素を読み出すことも考えられる。この場合は、画像1枚当たりの転送時間が減るため、撮像に要する時間についても低減できる。
図8は本実施形態における照射部205による照射パターンの設定画面800を示した図である。図8より、設定画面800には、照射パターン設定表示領域801が表示され、照射パターン設定表示領域801には、照射パターン表示領域802、803、パラメータ設定領域804が表示される。照射パターン表示領域802には、ユーザーが設定した、第1段階において照射する照射パターンが表示され、照射パターン表示領域803には、ユーザーが設定した、第2段階において照射する照射パターンが表示される。
パラメータ設定領域804には、パラメータ入力領域805、806、項目選択領域807が表示される。項目選択領域807はクリックすると、各種項目を選択できるプルダウンメニューが表示され、設定したい項目を選択できるようになっている。図8の例では、「照射パターン選択」の項目が設定されている。パラメータ入力領域805では第1段階において照射する照射パターンの数を選択でき10が設定されている。パラメータ入力領域806では第2段階において照射する照射パターンの数を選択でき6が設定されている。図8で示すGUI(Graphical User interface)によって、ユーザーは第1段階、第2段階の照射パターンを視覚的に把握でき、各段階でどのような照射パターンを照射するのか容易に確認、設定することができる。
図9は本実施形態における照射部205による照射パターンの詳細を確認するために詳細表示領域901を示した図である。項目選択領域807においてプルダウンメニューより「照射パターン表示」を選択することで、図9で示す表示に更新される。詳細表示領域901には、照射パターン個別表示領域902、照射パターン選択領域903が表示される。照射パターン選択領域903では、各照射パターンに対応するインデックス番号を選択でき、図9の例ではインデックス番号2が選択され、インデックス番号2に対応する照射パターンが拡大されて照射パターン個別表示領域902に表示されている。スピンボタン903aにより、インデックス番号を送ったり、戻したりすることができる。図9で示すGUIによって、指定したインデックス番号に対応したパターンが個別に表示され、ユーザーはパターン照射時の空間分割数を視覚的に確認することができる。
図10は本実施形態における照射パターンを照射した際に撮像された撮像画像を確認するための撮像画像確認画面1000を示した図である。図10より、撮像画像確認画面1000には、撮像画像表示領域1001が表示される。撮像画像表示領域1001には、詳細表示領域1002、撮像画像選択領域1003、項目選択領域1004が表示される。項目選択領域1004はクリックすると、各種項目を選択できるプルダウンメニューが表示され、設定したい項目を選択できるようになっている。図10の例では、「撮像画像表示」の項目が設定されている。
撮像画像選択領域1003では、各照射パターンに対応するインデックス番号を選択でき、図10の例ではインデックス番号2が選択され、インデックス番号2に対応する照射パターンが照射された際に撮像された撮像画像が詳細表示領域1002に表示される。スピンボタン1003aにより、インデックス番号を送ったり、戻したりすることができる。図9で示すGUIによって、撮影画像中のワークとパターンの細かさが視覚的に確認できるため、第1段階及び第2段階において何枚のパターン画像を使用するべきかを決定する際に用いることができる。例えば、ワークサイズが大きい場合には第1段階の照射パターンを粗くするなど、対象ワークの特徴に応じた照射パターンの設定が可能となる。
図11は本実施形態における領域を絞った際の結果を確認するための領域結果確認画面1100を示した図である。領域結果確認画面1100には、領域確認表示1101が表示される。領域確認表示1101には、領域結果表示1102が表示される。
領域結果表示1102では、第1段階のマッチング(概略マッチング)において生成された点群情報により、どの程度領域を絞ったのかを表示する。領域結果表示1102には、第1段階のマッチングにおいて取得された三次元点群の情報を表示する三次元点群表示領域1103が表示される。そして三次元点群表示領域1103において、ワークの概略マッチングにより絞った領域結果1104が表示される。本実施形態では、領域結果1104を矩形で表示するがこれに限らず、円形、三角形、星形、ワーク形状近似等、種々の形状を使用して構わない。本実施形態では、三次元点群表示領域1103上に領域結果1104が重ねて表示される。
図11で示すGUIによって、絞った領域の結果を三次元点群上にグラフィカルに表示することができる。これにより、ユーザーは概略マッチングによる領域の抽出を視覚的に確認でき、照射パターンの分割数の調整、各段階における密度の調整が必要か否かを容易に判断することができる。
図12は本実施形態におけるマッチング結果を確認するためのマッチング結果確認画面1200を示した図である。マッチング結果確認画面1200には、マッチング結果確認領域1201が表示される。マッチング結果確認領域1201には、マッチング結果表示領域1202、1203が表示される。
第1段階のマッチング結果は、マッチング結果表示領域1202から確認できる。マッチング結果表示領域1202には、第1段階のマッチング(概略マッチング)において取得された三次元点群の情報を表示する三次元点群表示領域1204、二次元画像1205が表示される。そして三次元点群表示領域1204、二次元画像1205において、ワークの概略マッチング結果1206が表示される。本実施形態では、三次元点群表示領域1204および二次元画像1205上に概略マッチング結果1206が重ねて表示される。
第2段階のマッチング結果は、マッチング結果表示領域1203から確認できる。マッチング結果表示領域1203には、第2段階のマッチング(詳細マッチング)において取得された三次元点群の情報を表示する三次元点群表示領域1207、二次元画像1208が表示される。そして三次元点群表示領域1207、二次元画像1208において、ワークの詳細マッチング結果1209が表示される。本実施形態では、三次元点群表示領域1207および二次元画像1208上に詳細マッチング結果1209が重ねて表示される。なお本実施形態では、三次元点群表示領域1207において、高密度の点群生成を行った領域が判別できるよう、領域結果1104部分の密度(第2密度)を周りの密度(第1密度)と異ならせて表示している。
図12で示すGUIによって、マッチング結果を三次元点群および二次元画像上にグラフィカルに表示することができる。これにより、ユーザーはマッチング結果とワークとのずれを視覚的に確認でき、照射パターンの分割数の調整が必要か否かを容易に判断することができる。
以上本実施形態によれば、低密度の点群に基づき対象ワークのおおよその位置およびまたは姿勢を推定し対象ワークが存在する領域を抽出する。そして抽出した領域で高密度の点群に基づく詳細なマッチングを行う。これにより、マッチングにかかる領域を絞ることができるので、対象ワークの位置およびまたは姿勢を取得する際の計算量を低減でき、対象ワークの位置およびまたは姿勢の推定(取得)にかかる処理時間を短縮することが可能となる。また、詳細マッチングにおける点群生成においては、絞った領域で点群を生成する。よって、点群生成における処理時間も短縮でき、もって対象ワークの位置およびまたは姿勢の推定(取得)にかかる処理時間を短縮することが可能となる。また第2密度の点群の生成は、第1密度の点群に付加して生成するので、第2密度の点群の生成にかかる処理時間を短縮できる。また各GUIにより、照射パターンの設定や各段階における密度の設定をユーザーに容易に行わせることができ、マッチング結果の把握も容易に行わせることができる。
(第2の実施形態)
次に第2の実施形態について詳述する。本実施形態では先に画像をまとめて取得し、点群生成を2つの段階に分割する。以下では、上述の実施形態とハードウェア的な構成、および表示画面の構成などのうち基本的な部分は同じであるものとし、その詳細な説明は省略する。また、以下の実施形態において、同一ないし実質的に同一となる部材には同一の参照符号を用い、その詳細な説明は省略するものとする。
図13より、まずステップS600においてパターンを繰り返し照射し、ステップS601にて撮像する操作を行い、ステップS602により、すべてのワークに対して繰り返す。得られた画像の処理については、第1の実施形態と同様に分割する。第1の実施形態と同様に、最終的に使用する計16パターンの撮影画像のうち、ここでは12パターン分の画像を先行して使用する。
次にステップS603において得られた12パターンの画像に基づき第1のコード画像を作成し、ステップS604において点群生成を行い、ステップS605において概略マッチングを行う。ここまでが第1段階である。
続く第2段階では、残る4パターン分の撮影画像を用いてステップS606においてコード画像を作成し、ステップS607で第1段階の概略マッチング結果を用いて領域制限を行う。そして、ステップS608において第2密度での点群生成を行い、ステップS609にて詳細マッチングを実行し、対象ワークの位置およびまたは姿勢を取得する。
図14は、本実施形態と比較例との比較結果の詳細を示す図である。図14より、各処理時間の合計は、図7で示した第1の実施形態の効果と等しい。本実施形態は第1の実施形態と処理の順番を入れ替えているが、処理時間短縮に寄与する部分については同様の操作を行っている。したがって、全体の処理時間は、撮影のタイミングを分割しない場合であっても、第1の実施形態と同様の効果が得られる。
以上本実施形態では、点群生成・マッチングを第1段階、第2段階に分割することで、対象ワークの位置およびまたは姿勢に関する情報の取得にかかる全体の処理時間を短縮できる。また、ここではグレイコードを用いた空間コード化法による手法を示したが、本実施形態のように撮影画像の処理を分割するのであれば、ランダムドットパターンを用いたブロックマッチングによる点群生成であってもよい。その場合、使用する画素を間引いて第1段階の点群とすれば、点群生成を第1段階と第2段階に分割したフローを実現できる。また、上述の種々の実施形態および変形例を本実施形態およびまたは本変形例と組み合わせて実施しても構わない。
(その他の実施形態)
以上述べた実施形態の処理手順は具体的には各CPUにより実行されるものである。従って上述した機能を実行可能なソフトウェアのプログラムを記録した記録媒体を読み出して実行するように構成することもできる。この場合、記録媒体から読み出されたプログラム自体が上述した各実施形態の機能を実現することになり、プログラム自体およびそのプログラムを記録した記録媒体は本発明を構成することになる。
また、各実施形態では、コンピュータで読み取り可能な記録媒体が各ROM或いは各RAM或いは各フラッシュROMであり、ROM或いはRAM或いはフラッシュROMにプログラムが格納される場合について説明した。しかしながら本発明はこのような形態に限定されるものではない。本発明を実施するためのプログラムは、コンピュータ読み取り可能な記録媒体であれば、いかなる記録媒体に記録されていてもよい。また画像処理装置201の機能を搭載した撮像装置により実施しても構わない。
また上述した種々の実施形態では、ロボットアーム212が複数の関節を有する多関節ロボットアームを用いた場合を説明したが、関節の数はこれに限定されるものではない。ロボットアームの形式として、垂直多軸構成を示したが、水平多関節型、パラレルリンク型、直交ロボットなど異なる形式の関節においても上記と同等の構成を実施することができる。
また上述した種々の実施形態は、制御装置に設けられる記憶装置の情報に基づき、伸縮、屈伸、上下移動、左右移動もしくは旋回の動作またはこれらの複合動作を自動的に行うことができる機械に適用可能である。
なお本発明は、上述した実施形態に限定されるものではなく、本発明の技術的思想内で多くの変形が可能である。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されない。また、上述の種々の実施形態および変形例を組み合わせて実施しても構わない。
また本実施形態の開示は、以下の構成および方法を含む。
(構成1)
ワークを撮像する撮像部により前記ワークの画像の処理する画像処理装置であって、
処理部が、
前記画像において第1密度の点群を設定し、
前記第1密度の点群に基づき前記ワークが存在する領域を特定し、前記領域において前記第1密度よりも高い第2密度の点群を設定し、
前記第2密度の点群に基づき前記ワークの位置または姿勢に関する情報を取得する、
ことを特徴とする画像処理装置。
(構成2)
構成1に記載の画像処理装置において、
前記処理部は、
前記領域において取得されている前記第1密度にさらに密度を有する点群を付加することで、前記領域において前記第2密度の点群を設定する、
ことを特徴とする画像処理装置。
(構成3)
構成1または2に記載の画像処理装置において、
前記処理部は、
前記ワークに関するモデルと前記第1密度の点群とをマッチングすることで前記領域を特定する、
ことを特徴とする画像処理装置。
(構成4)
構成3に記載の画像処理装置において、
前記処理部は、
前記モデルと前記第2密度の点群とをマッチングし、前記第1密度の点群に基づくマッチングの結果を修正することで前記ワークの位置または姿勢に関する情報を取得する、
ことを特徴とする画像処理装置。
(構成5)
構成3または4にいずれか1項に記載の画像処理装置において、
前記処理部は、
前記第1密度の点群または前記第2密度の点群を設定する際、前記画像と三角測量に基づき設定する、
ことを特徴とする画像処理装置。
(構成6)
構成5に記載の画像処理装置において、
前記第1密度の点群と前記第2密度の点群は三次元点群であり、
前記処理部は、
前記第1密度の点群と前記第2密度の点群と前記モデルと前記ワークの三次元のエッジ情報と、を用いてマッチングを行う、
ことを特徴とする画像処理装置。
(構成7)
構成6に記載の画像処理装置において、
前記第2密度の点群を設定する際に使用する画素および視差の探索範囲を前記領域に基づく三次元空間に制限する、
ことを特徴とする画像処理装置。
(構成8)
構成1から7のいずれか1項に記載の画像処理装置において、
前記領域に基づき、前記第2密度の点群を設定する際の前記画像を取得する際に、前記撮像部における撮像領域を前記領域に制限する、
ことを特徴とする構成6に記載の画像処理装置。
(構成9)
構成1から8のいずれか1項に記載の画像処理装置において、
前記画像の一部の画素に基づき前記第1密度の点群を設定する、
ことを特徴とする画像処理装置。
(構成10)
構成1から9のいずれか1項に記載の画像処理装置において、
前記処理部は表示部に、
前記ワークと前記領域とにかかる情報を表示する、
ことを特徴とする画像処理装置。
(構成11)
構成1から10のいずれか1項に記載の画像処理装置において、
前記処理部は表示部に、
前記第1密度の点群と前記第2密度の点群とにかかる情報を表示する、
ことを特徴とする画像処理装置。
(構成12)
構成11に記載の画像処理装置において、
前記処理部は、前記領域において前記第2密度の点群を表示する、
ことを特徴とする画像処理装置。
(構成13)
構成1から12のいずれか1項に記載の画像処理装置において、
前記処理部は表示部に、
前記第1密度の点群に基づく前記ワークの位置または姿勢にかかる情報と、前記第2密度の点群に基づく前記ワークの位置または姿勢にかかる情報と、を表示する、
ことを特徴とする画像処理装置。
(構成14)
構成1から13のいずれか1項に記載の画像処理装置において、
前記処理部は表示部に、
前記画像を二次元で表示する共に、前記画像に前記第1密度の点群または前記第2密度の点群を重畳した画像を表示する、
ことを特徴とする画像処理装置。
(構成15)
構成1から14のいずれか1項に記載の画像処理装置において、
前記処理部は、
照射部により前記ワークに照射パターンを照射して前記撮像部により前記画像を取得する、
ことを特徴とする画像処理装置。
(構成16)
構成15に記載の画像処理装置において、
前記撮像部は、前記照射部と光学的に校正されている、
ことを特徴とする画像処理装置。
(構成17)
構成15または16に記載の画像処理装置において、
前記処理部は表示部に、
前記照射パターンを選択できるように表示し、かつ選択した前記照射パターンをグラフィカルに表示する、
ことを特徴とする画像処理装置。
(構成18)
構成15から17のいずれか1項に記載の画像処理装置において、
前記処理部は表示部に、
前記照射パターンを前記ワークに照射した際の前記画像を表示する、
ことを特徴とする画像処理装置。
(構成19)
構成15から18のいずれか1項に記載の画像処理装置において、
前記処理部は表示部に、
前記照射パターンの空間分割数をユーザーが任意に指定できる設定領域を表示する、
ことを特徴とする画像処理装置。
(構成20)
構成1から19のいずれか1項に記載の画像処理装置に基づき動作が制御されるロボットを備えたロボットシステム。
(方法21)
構成20に記載のロボットシステムを用いて物品の製造を行うことを特徴とする物品の製造方法。
(方法22)
ワークを撮像する撮像部により前記ワークの画像の処理する画像処理方法であって、
前記画像において第1密度の点群を設定し、
前記第1密度の点群に基づき前記ワークが存在する領域を特定し、前記領域において前記第1密度よりも高い第2密度の点群を設定し、
前記第2密度の点群に基づき前記ワークの位置または姿勢に関する情報を取得する、
ことを特徴とする画像処理方法。
(構成23)
ワークを撮像し、前記ワークの画像の処理を実行可能な撮像装置であって、
処理部が、
前記画像において第1密度の点群を設定し、
前記第1密度の点群に基づき前記ワークが存在する領域を特定し、前記領域において前記第1密度よりも高い第2密度の点群を設定し、
前記第2密度の点群に基づき前記ワークの位置または姿勢に関する情報を取得する、
ことを特徴とする撮像装置。
(方法24)
ワークを撮像し、前記ワークの画像の処理を実行可能な撮像装置の制御方法であって、
前記画像において第1密度の点群を設定し、
前記第1密度の点群に基づき前記ワークが存在する領域を特定し、前記領域において前記第1密度よりも高い第2密度の点群を設定し、
前記第2密度の点群に基づき前記ワークの位置または姿勢に関する情報を取得する、
ことを特徴とする制御方法。
(構成25)
方法22に記載の画像処理方法、または方法24に記載の制御方法をコンピュータにより実行可能なプログラム。
(構成26)
構成25に記載のプログラムを格納した、コンピュータで読み取り可能な記録媒体。
200 ロボットシステム
201 画像処理装置
202 ロボット(ロボットマニピュレータ)
203、204 撮像部
205 照射部
206 ワーク
207 容器
208 載置台
209 俯瞰位置
210 ロボットコントローラ
211 ロボットハンド
212 ロボットアーム
800 照射パターン設定画面
801 照射パターン設定表示領域
802、803 照射パターン表示領域
804 パラメータ設定領域
805、806 パラメータ入力領域
807 項目選択領域
901 詳細表示領域
902 照射パターン個別表示領域
903 照射パターン選択領域
903a、1003a スピンボタン
1000 撮像画像確認画面
1001 撮像画像表示領域
1002 詳細表示領域
1003 撮像画像選択領域
1004 項目選択領域
1100 領域結果確認画面
1101 領域確認表示
1102 領域結果表示
1103 三次元点群表示領域
1104 領域結果
1200 マッチング結果確認画面
1201 マッチング結果確認領域
1202、1203 マッチング結果表示領域
1204 三次元点群表示領域
1205 二次元画像
1206 概略マッチング結果
1207 三次元点群表示領域
1208 二次元画像
1209 詳細マッチング結果

Claims (26)

  1. ワークを撮像する撮像部により前記ワークの画像の処理する画像処理装置であって、
    処理部が、
    前記画像において第1密度の点群を設定し、
    前記第1密度の点群に基づき前記ワークが存在する領域を特定し、前記領域において前記第1密度よりも高い第2密度の点群を設定し、
    前記第2密度の点群に基づき前記ワークの位置または姿勢に関する情報を取得する、
    ことを特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    前記処理部は、
    前記領域において取得されている前記第1密度にさらに密度を有する点群を付加することで、前記領域において前記第2密度の点群を設定する、
    ことを特徴とする画像処理装置。
  3. 請求項1に記載の画像処理装置において、
    前記処理部は、
    前記ワークに関するモデルと前記第1密度の点群とをマッチングすることで前記領域を特定する、
    ことを特徴とする画像処理装置。
  4. 請求項3に記載の画像処理装置において、
    前記処理部は、
    前記モデルと前記第2密度の点群とをマッチングし、前記第1密度の点群に基づくマッチングの結果を修正することで前記ワークの位置または姿勢に関する情報を取得する、
    ことを特徴とする画像処理装置。
  5. 請求項3に記載の画像処理装置において、
    前記処理部は、
    前記第1密度の点群または前記第2密度の点群を設定する際、前記画像と三角測量に基づき設定する、
    ことを特徴とする画像処理装置。
  6. 請求項5に記載の画像処理装置において、
    前記第1密度の点群と前記第2密度の点群は三次元点群であり、
    前記処理部は、
    前記第1密度の点群と前記第2密度の点群と前記モデルと前記ワークの三次元のエッジ情報と、を用いてマッチングを行う、
    ことを特徴とする画像処理装置。
  7. 請求項6に記載の画像処理装置において、
    前記第2密度の点群を設定する際に使用する画素および視差の探索範囲を前記領域に基づく三次元空間に制限する、
    ことを特徴とする画像処理装置。
  8. 請求項1に記載の画像処理装置において、
    前記領域に基づき、前記第2密度の点群を設定する際の前記画像を取得する際に、前記撮像部における撮像領域を前記領域に制限する、
    ことを特徴とする請求項6に記載の画像処理装置。
  9. 請求項1に記載の画像処理装置において、
    前記画像の一部の画素に基づき前記第1密度の点群を設定する、
    ことを特徴とする画像処理装置。
  10. 請求項1に記載の画像処理装置において、
    前記処理部は表示部に、
    前記ワークと前記領域とにかかる情報を表示する、
    ことを特徴とする画像処理装置。
  11. 請求項1に記載の画像処理装置において、
    前記処理部は表示部に、
    前記第1密度の点群と前記第2密度の点群とにかかる情報を表示する、
    ことを特徴とする画像処理装置。
  12. 請求項11に記載の画像処理装置において、
    前記処理部は、前記領域において前記第2密度の点群を表示する、
    ことを特徴とする画像処理装置。
  13. 請求項1に記載の画像処理装置において、
    前記処理部は表示部に、
    前記第1密度の点群に基づく前記ワークの位置または姿勢にかかる情報と、前記第2密度の点群に基づく前記ワークの位置または姿勢にかかる情報と、を表示する、
    ことを特徴とする画像処理装置。
  14. 請求項1に記載の画像処理装置において、
    前記処理部は表示部に、
    前記画像を二次元で表示する共に、前記画像に前記第1密度の点群または前記第2密度の点群を重畳した画像を表示する、
    ことを特徴とする画像処理装置。
  15. 請求項1に記載の画像処理装置において、
    前記処理部は、
    照射部により前記ワークに照射パターンを照射して前記撮像部により前記画像を取得する、
    ことを特徴とする画像処理装置。
  16. 請求項15に記載の画像処理装置において、
    前記撮像部は、前記照射部と光学的に校正されている、
    ことを特徴とする画像処理装置。
  17. 請求項15に記載の画像処理装置において、
    前記処理部は表示部に、
    前記照射パターンを選択できるように表示し、かつ選択した前記照射パターンをグラフィカルに表示する、
    ことを特徴とする画像処理装置。
  18. 請求項15に記載の画像処理装置において、
    前記処理部は表示部に、
    前記照射パターンを前記ワークに照射した際の前記画像を表示する、
    ことを特徴とする画像処理装置。
  19. 請求項15に記載の画像処理装置において、
    前記処理部は表示部に、
    前記照射パターンの空間分割数をユーザーが任意に指定できる設定領域を表示する、
    ことを特徴とする画像処理装置。
  20. 請求項1に記載の画像処理装置に基づき動作が制御されるロボットを備えたロボットシステム。
  21. 請求項1から20のいずれか1項に記載のロボットシステムを用いて物品の製造を行うことを特徴とする物品の製造方法。
  22. ワークを撮像する撮像部により前記ワークの画像の処理する画像処理方法であって、
    前記画像において第1密度の点群を設定し、
    前記第1密度の点群に基づき前記ワークが存在する領域を特定し、前記領域において前記第1密度よりも高い第2密度の点群を設定し、
    前記第2密度の点群に基づき前記ワークの位置または姿勢に関する情報を取得する、
    ことを特徴とする画像処理方法。
  23. ワークを撮像し、前記ワークの画像の処理を実行可能な撮像装置であって、
    処理部が、
    前記画像において第1密度の点群を設定し、
    前記第1密度の点群に基づき前記ワークが存在する領域を特定し、前記領域において前記第1密度よりも高い第2密度の点群を設定し、
    前記第2密度の点群に基づき前記ワークの位置または姿勢に関する情報を取得する、
    ことを特徴とする撮像装置。
  24. ワークを撮像し、前記ワークの画像の処理を実行可能な撮像装置の制御方法であって、
    前記画像において第1密度の点群を設定し、
    前記第1密度の点群に基づき前記ワークが存在する領域を特定し、前記領域において前記第1密度よりも高い第2密度の点群を設定し、
    前記第2密度の点群に基づき前記ワークの位置または姿勢に関する情報を取得する、
    ことを特徴とする制御方法。
  25. 請求項22に記載の画像処理方法、または請求項24に記載の制御方法をコンピュータにより実行可能なプログラム。
  26. 請求項25に記載のプログラムを格納した、コンピュータで読み取り可能な記録媒体。
JP2022183236A 2022-11-16 2022-11-16 画像処理装置、画像処理方法、ロボットシステム、物品の製造方法、撮像装置、撮像装置の制御方法、プログラム及び記録媒体 Pending JP2024072429A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022183236A JP2024072429A (ja) 2022-11-16 2022-11-16 画像処理装置、画像処理方法、ロボットシステム、物品の製造方法、撮像装置、撮像装置の制御方法、プログラム及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022183236A JP2024072429A (ja) 2022-11-16 2022-11-16 画像処理装置、画像処理方法、ロボットシステム、物品の製造方法、撮像装置、撮像装置の制御方法、プログラム及び記録媒体

Publications (1)

Publication Number Publication Date
JP2024072429A true JP2024072429A (ja) 2024-05-28

Family

ID=91197062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022183236A Pending JP2024072429A (ja) 2022-11-16 2022-11-16 画像処理装置、画像処理方法、ロボットシステム、物品の製造方法、撮像装置、撮像装置の制御方法、プログラム及び記録媒体

Country Status (1)

Country Link
JP (1) JP2024072429A (ja)

Similar Documents

Publication Publication Date Title
JP7083189B2 (ja) 学習データセット作製方法及び装置
EP1905548B1 (en) Workpiece picking apparatus
JP5469216B2 (ja) バラ積みされた物品をロボットで取出す装置
JP6594129B2 (ja) 情報処理装置、情報処理方法、プログラム
JP6487493B2 (ja) 画像処理システム
CN109648568B (zh) 机器人控制方法、系统及存储介质
JP2010210458A (ja) 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ
JP2010534013A (ja) リアルオブジェクトに対するカメラの位置および方向を把握する方法およびシステム
CN104802186A (zh) 制作用于拍摄工件的机器人程序的机器人程序设计装置
CN109773776A (zh) 把持方法、把持系统以及存储介质
CN107850425B (zh) 用于测量制品的方法
US11590657B2 (en) Image processing device, control method thereof, and program storage medium
JP5858773B2 (ja) 3次元計測方法、3次元計測プログラム及びロボット装置
JP2009175012A (ja) 計測装置および計測方法
JP2024072429A (ja) 画像処理装置、画像処理方法、ロボットシステム、物品の製造方法、撮像装置、撮像装置の制御方法、プログラム及び記録媒体
Seçil et al. 3-d visualization system for geometric parts using a laser profile sensor and an industrial robot
JP2020016446A (ja) 情報処理装置、情報処理装置の制御方法、プログラム、計測装置、及び物品製造方法
JP7365567B2 (ja) 計測システム、計測装置、計測方法及び計測プログラム
WO2017038401A1 (ja) ワイヤハーネス製造装置、ワイヤハーネス製造方法及び被加工電線位置特定方法
WO2024042619A1 (ja) 装置、ロボットの制御装置、ロボットシステム、方法
US20230375334A1 (en) Metrology 3d scanning system and method
EP4019894B1 (en) Method of measuring a workpiece by using a coordinate measuring machine, and arrangement comprising a coordinate measuring machine
JP7299442B1 (ja) 制御装置、3次元位置計測システム、及びプログラム
US20230368414A1 (en) Pick and place systems and methods
US20240042605A1 (en) Apparatus and a Method for Automatically Programming a Robot to Follow Contours of Objects

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213