JP2019158691A - 制御装置、ロボット、ロボットシステム,及び、物体を認識する方法 - Google Patents

制御装置、ロボット、ロボットシステム,及び、物体を認識する方法 Download PDF

Info

Publication number
JP2019158691A
JP2019158691A JP2018047378A JP2018047378A JP2019158691A JP 2019158691 A JP2019158691 A JP 2019158691A JP 2018047378 A JP2018047378 A JP 2018047378A JP 2018047378 A JP2018047378 A JP 2018047378A JP 2019158691 A JP2019158691 A JP 2019158691A
Authority
JP
Japan
Prior art keywords
images
image
point cloud
control device
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018047378A
Other languages
English (en)
Inventor
知典 真野
tomonori Mano
知典 真野
林 正樹
Masaki Hayashi
林  正樹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2018047378A priority Critical patent/JP2019158691A/ja
Priority to US16/353,022 priority patent/US20190287258A1/en
Publication of JP2019158691A publication Critical patent/JP2019158691A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Artificial Intelligence (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

【課題】物体認識の処理時間を短縮できる制御装置を提供する。【解決手段】制御装置200は、相補的なn個の投影パターンを物体に投影した状態で物体をカメラ820で撮影することによって、n個の画像を取得する画像取得部271と、n個の画像のうちの1つ以上の画像を用いて、画像の複数の画素の位置を3次元座標で表現した点群を生成する点群生成部272と、n個の画像を用いて合成画像を生成するとともに、合成画像から物体の輪郭を抽出する輪郭抽出部273と、点群と物体の輪郭とを用いて物体を認識する物体認識実行部274と、を備える。【選択図】図4

Description

本発明は、カメラを用いた物体認識技術に関するものである。
ロボットなどの各種の装置において、3次元物体を認識する物体認識技術が利用される。物体認識技術の一つとして、ステレオカメラで撮影した画像を用いて物体の深度を計測する方法が利用されている。
特許文献1には、3次元深度計測方法として、パターンを測定対象物に投光することでテクスチャを発生させ、3次元計測精度を向上させたステレオ法が記載されている。
特開2001−147110号公報
しかしながら、物体の位置や姿勢をより精度よく計測したい場合には、3次元計測結果の他に、2次元画像の輪郭情報を組み合わせて位置姿勢を推定することが必要となる。この場合に、3次元計測のための撮影と輪郭抽出用の撮影とを別々に実行すると、全体の処理が完了するまでに長時間を要するという問題がある。
本発明の一形態によれば、物体の認識を実行する制御装置が提供される。この制御装置は、nを2以上の整数とし、相補的なn個の投影パターンを前記物体に投影した状態で前記物体をカメラで撮影することによって、n個の画像を取得する画像取得部と;前記n個の画像のうちの1つ以上の画像を用いて、前記画像の複数の画素の位置を3次元座標で表現した点群を生成する点群生成部と;前記n個の画像を用いて合成画像を生成するとともに、前記合成画像から前記物体の輪郭を抽出する輪郭抽出部と;前記点群と前記物体の輪郭とを用いて前記物体を認識する物体認識実行部と;を備える。
ロボットシステムの概念図。 複数のプロセッサーを有する制御装置の一例を示す概念図。 複数のプロセッサーを有する制御装置の他の例を示す概念図。 制御装置の機能を示すブロック図。 パーツフィーダーに収容された複数の部品を示す平面図。 第1実施形態における物体認識処理の手順を示すフローチャート。 第1実施形態における物体認識処理の説明図。 第2実施形態における物体認識処理の手順を示すフローチャート。 第2実施形態における物体認識処理の説明図。
A. 第1実施形態:
図1は、ロボットシステムの概念図である。このロボットシステムは、架台700に設置されており、ロボット100と、ロボット100に接続された制御装置200と、ティーチングペンダント300と、パーツフィーダー400と、ホッパー500と、パーツトレイ600と、投影装置810と、カメラ820とを備えている。ロボット100は、架台700の天板710の下に固定されている。パーツフィーダー400と、ホッパー500と、パーツトレイ600は、架台700のテーブル部720に載置されている。ロボット100は、ティーチングプレイバック方式のロボットである。ロボット100を用いた作業は、予め作成された教示データに従って実行される。このロボットシステムには、直交する3つの座標軸X,Y,Zで規定されるシステム座標系Σsが設定されている。図1の例では、X軸とY軸は水平方向であり、Z軸は鉛直上方向である。教示データに含まれる教示点やエンドエフェクタの姿勢は、このシステム座標系Σsの座標値と各軸回りの角度で表現される。
ロボット100は、基台120と、アーム130とを備えている。アーム130は、4つの関節J1〜J4で順次接続されている。これらの関節J1〜J4のうち、3つの関節J1,J2,J4はねじり関節であり、1つの関節J3は並進関節である。本実施形態では4軸ロボットを例示しているが、1個以上の関節を有する任意のアーム機構を有するロボットを用いることが可能である。
アーム130の先端部に設けられたアームフランジ132には、エンドエフェクター160が装着されている。図1の例では、エンドエフェクター160は、把持機構164を用いてパーツを把持して拾い上げるグリッパーである。但し、エンドエフェクター160としては、吸着ピックアップ機構などの他の機構を取り付けることも可能である。
パーツフィーダー400は、エンドエフェクター160が把持するパーツを収容する収容装置である。パーツフィーダー400は、パーツを振動させてパーツ同士を分散させる振動機構を有するように構成されていてもよい。ホッパー500は、パーツフィーダー400にパーツを補給するパーツ補給装置である。パーツトレイ600は、パーツを個別に収容するための多数の凹部を有するトレイである。本実施形態において、ロボット100は、パーツフィーダー400の中からパーツを拾い上げて、パーツトレイ600内の適切な位置に収納する作業を実行する。但し、ロボットシステムは、これ以外の他の作業を行う場合にも適用可能である。
制御装置200は、プロセッサー210と、メインメモリー220と、不揮発性メモリー230と、表示制御部240と、表示部250と、I/Oインターフェース260とを有している。これらの各部は、バスを介して接続されている。プロセッサー210は、例えばマイクロプロセッサー又はプロセッサー回路である。制御装置200は、I/Oインターフェース260を介して、ロボット100と、ティーチングペンダント300と、パーツフィーダー400と、ホッパー500とに接続される。制御装置200は、更に、I/Oインターフェース260を介して投影装置810とカメラ820にも接続される。
制御装置200の構成としては、図1に示した構成以外の種々の構成を採用することが可能である。例えば、プロセッサー210とメインメモリー220を図1の制御装置200から削除し、この制御装置200と通信可能に接続された他の装置にプロセッサー210とメインメモリー220を設けるようにしてもよい。この場合には、当該他の装置と制御装置200とを合わせた装置全体が、ロボット100の制御装置として機能する。他の実施形態では、制御装置200は、2つ以上のプロセッサー210を有していてもよい。更に他の実施形態では、制御装置200は、互いに通信可能に接続された複数の装置によって実現されていてもよい。これらの各種の実施形態において、制御装置200は、1つ以上のプロセッサー210を備える装置又は装置群として構成される。
図2は、複数のプロセッサーによってロボットの制御装置が構成される一例を示す概念図である。この例では、ロボット100及びその制御装置200の他に、パーソナルコンピューター1400,1410と、LANなどのネットワーク環境を介して提供されるクラウドサービス1500とが描かれている。パーソナルコンピューター1400,1410は、それぞれプロセッサーとメモリーとを含んでいる。また、クラウドサービス1500においてもプロセッサーとメモリーを利用可能である。これらの複数のプロセッサーの一部又は全部を利用して、ロボット100の制御装置を実現することが可能である。
図3は、複数のプロセッサーによってロボットの制御装置が構成される他の例を示す概念図である。この例では、ロボット100の制御装置200が、ロボット100の中に格納されている点が図2と異なる。この例においても、複数のプロセッサーの一部又は全部を利用して、ロボット100の制御装置を実現することが可能である。
図4は、制御装置200の機能を示すブロック図である。制御装置200のプロセッサー210は、不揮発性メモリー230に予め記憶された各種のプログラム命令231を実行することにより、ロボット制御部211と、パーツフィーダー制御部212と、ホッパー制御部213と、物体認識部270の機能をそれぞれ実現する。
物体認識部270は、カメラ820を用いて画像を取得する画像取得部271と、画像を用いて点群を生成する点群生成部272と、画像内の物体の輪郭を抽出する輪郭抽出部273と、生成された点群と輪郭を用いて物体を認識する物体認識実行部274とを含んでいる。これらの各部の機能については後述する。
不揮発性メモリー230は、プログラム命令231と教示データ232の他に、画像の撮影に使用する各種の投影パターン233と、物体認識に使用する物体の3次元モデルデータ234とを記憶する。
図5は、パーツフィーダー400に複数の部品PPが収容された状態を示す平面図である。本実施形態では、このような複数の同一の部品PPをカメラ820で撮像し、その画像を解析して部品PPを認識する物体認識処理を実行する。認識された部品PPはエンドエフェクター160で把持することが可能である。以下では、部品PPを「物体PP」とも呼ぶ。なお、物体認識処理を、ロボット以外の用途に使用してもよい。
第1実施形態において、カメラ820はステレオカメラである。投影装置810は、カメラ820を用いて部品PPを撮影する際に、特定の投影パターンを照射するために設けられている。投影パターンの例については後述する。
本実施形態の物体認識処理には、画像から得られる点群と輪郭とを使用する。「点群」とは、画像の画素の位置を3次元座標値X[mm],Y[mm],Z[mm]で表現した点データの集合である。3次元座標としては、カメラ座標系や、システム座標系Σs、ロボット座標系などの任意の座標系を使用できる。
図6は、第2実施形態における物体認識処理のフローチャートであり、図7はその説明図である。第1実施形態では、点群生成処理にステレオブロックマッチング法を使用する。図6のステップS110〜S130は画像取得部271によって実行され、ステップS210〜S230は点群生成部272によって実行され、ステップS310〜S320は輪郭抽出部273によって実行され、ステップS410は物体認識実行部274によって実行される。
ステップS110では、n個の相補的な投影パターンの中から1つを選択して物体に投影し、ステップS120でカメラ820を用いて画像を撮影する。ここで、nは2以上の整数である。
図7に示すように、第1実施形態では、n個の相補的な投影パターンとして、ランダムドットパターンRPとその反転パターンRP#とを使用する。ランダムドットパターンRP,RP#を投影すると、部品PPの表面にテクスチャーを付与することができるので、部品PPの点群をより高精度で取得できるという利点がある。図7では図示の便宜上、ランダムドットパターンRP,RP#の画素を比較的大きく描いているが、実際には部品PPのサイズに比べて十分に小さい画素でランダムドットパターンRP,RP#が形成される。
本明細書において、「n個の相補的な投影パターン」とは、投影装置810におけるn個の投影パターンの画素値を画素毎に加算すると、一様な画像となるような投影パターンを意味する。例えば、図7に示すランダムドットパターンRPと反転パターンRP#を2値画像として構成した場合には、それらの画素値を画素毎に加算すると画素値が全て1となり、一様な画像となる。また、この例ではnは2に等しいが、nを3以上とすることも可能である。例えば、3個以上のランダムドットパターンを相補的な投影パターンとして構成することも可能である。相補的な投影パターンとしては、ランダムドットパターンに限らず、他の任意の投影パターンを使用可能である。
ステップS110,S120による1回目の撮影では、ランダムドットパターンRPを部品PPに投影した状態で、ステレオ画像である左画像LM1と右画像RM1が得られる。ステップS130では、n回の撮影が終了したか否かが判定され、終了していなければステップS110,S120が繰り返される。第1実施形態では、n=2であり、2回目の撮影では、反転パターンRP#を部品PPに投影した状態で、ステレオ画像である左画像LM2と右画像RM2が得られる。
ステップS210では、n回の撮影で得られたn組のステレオ画像のうちの1組以上を用いて、ステレオブロックマッチング法に従って視差を計算することによって視差画像を生成する。図7の例では、2つのステレオ画像を用いて、2つの視差画像DM1,DM2が生成されている。但し、1つのステレオ画像を用いて1つの視差画像のみを生成するようにしてもよい。
視差画像DM1,DM2のそれぞれは、ステレオカメラ820の左右の視差を画素値とした画像である。視差Dとステレオカメラ820との距離Zとの関係は、次式で与えられる。
Z=f×T/D …(1)
ここで、fはカメラの焦点距離、Tはステレオカメラ820を構成する2つのカメラの光軸間の距離である。
なお、ステレオブロックマッチング法による視差計算の前に、左画像と右画像に前処理を行うようにしてもよい。前処理としては、例えば、レンズによる画像の歪みを補正する歪み補正と、左画像と右画像の向きを平行化する平行化処理とを含む幾何補正が行われる。
ステップS220では、2つの視差画像DM1,DM2を平均化することよって、平均化後の視差画像DMaveを生成する。但し、ステップS210で1つの視差画像のみを生成する場合には、ステップS220は省略される。なお、ここでは2つの視差画像DM1,DM2を平均化するとしたが、周囲の画素を含めた値を平均化してもよいし、視差画像DM1,DM2の異常値を削除するなど、視差画像DM1,DM2のばらつきを低減して精度を向上する他の処理を行ってもよい。
ステップS230では、次に、視差画像DMaveから点群PGを生成する。このとき、視差画像DMaveの視差Dから上記(1)式に従って算出した距離Zを使用する。前述したように、「点群」は、画像の画素の位置を3次元座標値X[mm],Y[mm],Z[mm]で表現した点データの集合である。なお、視差画像DMaveの視差D又は距離Zを用いた点群生成の処理は周知なので、ここではその説明は省略する。
ステップS310では、n回の撮影で得られたn個の画像を合成することによって、合成画像CMを生成する。図7の例では、ステレオ画像のうちの右画像RM1,RM2を合成することによって合成画像CMを生成している。このとき、左画像と右画像のうちで、視差画像DM1,DM2の作成時に基準画像として用いた方を用いて合成画像CMを作成することが好ましい。この理由は、視差画像DMから得られる点群PGと、合成画像CMから抽出される輪郭がより整合するからである。但し、左画像と右画像の両方を用いて合成画像CMを作成してもよい。なお、画像の合成は、対応する画素の画素値を加算する加算演算によって実行される。
ステップS320では、合成画像CMに対して輪郭抽出処理を実行することによって、輪郭画像PMを生成する。この輪郭画像PMは、部品PPの輪郭を含む画像である。合成画像CMは、n回の撮影で得られたn個の画像を合成した画像なので、n個の相補的な投影パターンの影響がほとんど無い。従って、合成画像CMから部品PPの輪郭を精度良く得ることが可能である。
ステップS410では、物体認識実行部274が、点群PGと輪郭画像PMの輪郭とを用いて、物体としての部品PPの3次元形状を認識する。
点群と輪郭を用いた物体の3次元形状の認識方法としては、例えば、本願の出願人により開示された特開2017−182274号公報に記載された方法を利用可能である。或いは、"Model Globally, Match Locally: Efficient and Robust 3D Object Recognition", Bertram Drost他, http://campar.in.tum.de/pub/drost2010CVPR/drost2010CVPR.pdf, に記載された方法や、「ベクトルペアマッチングによる高信頼な3次元位置姿勢認識」,秋月秀一, http://isl.sist.chukyo-u.ac.jp/Archives/vpm.pdf, に記載された方法などを利用してもよい。これらの方法は、点群と、輪郭と、物体の3次元モデルデータを使用した物体認識方法である。但し、3次元モデルデータを使用せずに、点群と輪郭から物体の3次元形状を認識するようにしてもよい。
物体としての部品PPの認識結果は、物体認識部270からロボット制御部211に与えられる。この結果、ロボット制御部211がこの認識結果を利用して部品PPの把持動作を実行することが可能となる。
以上のように、第1実施形態では、相補的なn個の投影パターンを投影した状態で撮影したn個の画像を用いて点群の生成と物体の輪郭の抽出とを行うので、3次元計測のための点群生成用の撮影と輪郭抽出用の撮影を別個に行う場合に比べて、全体の処理に要する時間を短縮することが可能である。
また、第1実施形態では、ランダムドットパターンRPとその反転パターンRP#を投影した状態で撮影した2組のステレオ画像を用いて点群の生成と物体の輪郭の抽出とを行うので、3次元計測のための点群生成用の撮影と輪郭抽出用の撮影を別個に行う場合に比べて、全体の処理に要する時間を短縮できる。
B. 第2実施形態:
図8は、第2実施形態における物体認識処理のフローチャートであり、図9はその説明図である。図8の処理手順は、図6に示した第1実施形態の処理手順のステップS210をステップS210aに置き換え、また、ステップS220を省略したものである。第2実施形態では、点群生成処理に位相シフト法を使用し、ステップS110,S120での撮影の際に、n個の投影パターンとして位相シフトパターンを使用する。
図9に示すn個の位相シフトパターンPH1〜PHnは、正弦波状の濃淡を有する縞模様のパターンである。位相シフト法では、一般に、nを3以上の整数として、n枚の位相シフトパターンPH1〜PHnを用いて画像の撮影が行われる。n枚の位相シフトパターンPH1〜PHnは、2π/nずつ順次ずれた位相を有する正弦波状パターンである。図9の例ではn=4である。なお、位相シフト法では、ステレオカメラを使用する必要は無いので、カメラ820として単眼カメラを使用することが可能である。或いは、ステレオカメラを構成する2つのカメラのうちの一方のみを使用して撮影を行ってもよい。
第2実施形態では、ステップS110〜S130によって4個の位相シフト画像PSM1〜PSM4が得られる。ステップS210aでは、これらの位相シフト画像PSM1〜PSM4を用い、位相シフト法に従って距離画像DMを生成する。位相シフト法を使用した距離画像DMの生成処理は周知なので、ここではその説明は省略する。ステップS230では、距離画像DMを用いて点群PGを生成する。
ステップS310では、n回の撮影で得られたn個の画像を合成することによって、合成画像CMを生成する。図9の例では、4つの位相シフト画像PSM1〜PSM4を合成することによって合成画像CMを生成している。ステップS320における輪郭抽出処理と、ステップS410における物体認識処理は、第1実施形態と同様である。
以上のように、第2実施形態においても、相補的なn個の投影パターンを投影した状態で撮影したn個の画像を用いて点群の生成と物体の輪郭の抽出とを行うので、3次元計測のための点群生成用の撮影と輪郭抽出用の撮影を別個に行う場合に比べて、全体の処理に要する時間を短縮することが可能である。
また、第2実施形態では、n個の位相シフトパターンを物体に投影した状態で撮影したn個の画像を用いて点群の生成と物体の輪郭の抽出とを行うので、3次元計測のための点群生成用の撮影と輪郭抽出用の撮影を別個に行う場合に比べて、全体の処理に要する時間を短縮できる。
C. 他の実施形態:
本発明は、上述した実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の形態で実現することができる。例えば、本発明は、以下の形態(aspect)によっても実現可能である。以下に記載した各形態中の技術的特徴に対応する上記実施形態中の技術的特徴は、本発明の課題の一部又は全部を解決するために、あるいは、本発明の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
(1)本発明の第1の形態によれば、物体の認識を実行する制御装置が提供される。この制御装置は、nを2以上の整数とし、相補的なn個の投影パターンを前記物体に投影した状態で前記物体をカメラで撮影することによって、n個の画像を取得する画像取得部と;前記n個の画像のうちの1つ以上の画像を用いて、前記画像の複数の画素の位置を3次元座標で表現した点群を生成する点群生成部と;前記n個の画像を用いて合成画像を生成するとともに、前記合成画像から前記物体の輪郭を抽出する輪郭抽出部と;前記点群と前記物体の輪郭とを用いて前記物体を認識する物体認識実行部と;を備える。
この制御装置によれば、相補的なn個の投影パターンを投影した状態で撮影したn個の画像を用いて点群の生成と物体の輪郭の抽出とを行うので、3次元計測のための点群生成用の撮影と輪郭抽出用の撮影を別個に行う場合に比べて、全体の処理に要する時間を短縮することが可能である。
(2)上記制御装置において、前記nは2であり、前記n個の投影パターンは、ランダムドットパターンとその反転パターンであり、前記カメラはステレオカメラであるものとしてもよい。
この制御装置によれば、ランダムドットパターンとその反転パターンを投影した状態で撮影した2組のステレオ画像を用いて点群の生成と物体の輪郭の抽出とを行うので、3次元計測のための点群生成用の撮影と輪郭抽出用の撮影を別個に行う場合に比べて、全体の処理に要する時間を短縮することが可能である。
(3)上記制御装置において、前記nは3以上であり、前記n個の投影パターンは、正弦波状パターンの位相を2π/nずつ順にずらした位相シフトパターンであるものとしてもよい。
この制御装置によれば、n個の位相シフトパターンを物体に投影した状態で撮影したn個の画像を用いて点群の生成と物体の輪郭の抽出とを行うので、3次元計測のための点群生成用の撮影と輪郭抽出用の撮影を別個に行う場合に比べて、全体の処理に要する時間を短縮することが可能である。
(4)本発明の第2形態によれば、物体の認識を実行する制御装置が提供される。この制御装置は、プロセッサーを備え、前記プロセッサーは、nを2以上の整数とし、相補的なn個の投影パターンを前記物体に投影した状態で前記物体をカメラで撮影することによって、n個の画像を取得する画像取得処理と;前記n個の画像のうちの1つ以上の画像を用いて、前記画像の複数の画素の位置を3次元座標で表現した点群を生成する点群生成処理と;前記n個の画像を用いて合成画像を生成するとともに、前記合成画像から前記物体の輪郭を抽出する輪郭抽出処理と;前記点群と前記物体の輪郭とを用いて前記物体を認識する物体認識実行処理と;を実行する。
この制御装置によれば、相補的なn個の投影パターンを投影した状態で撮影したn個の画像を用いて点群の生成と物体の輪郭の抽出とを行うので、3次元計測のための点群生成用の撮影と輪郭抽出用の撮影を別個に行う場合に比べて、全体の処理に要する時間を短縮することが可能である。
(5)本発明の第3形態によれば上記制御装置に接続されたロボットが提供される。
このロボットによれば、ロボットが処理対象とする物体の認識を短時間で行うことが可能となる。
(6)本発明の第4形態によれば、ロボットと、前記ロボットに接続された前記制御装置と、を備えるロボットシステムが提供される。
このロボットシステムによれば、ロボットが処理対象とする物体の認識を短時間で行うことが可能となる。
(7)本発明の第5形態によれば、物体の認識を実行する方法が提供される。この方法は、nを2以上の整数とし、相補的なn個の投影パターンを前記物体に投影した状態で前記物体をカメラで撮影することによって、n個の画像を取得する工程と;前記n個の画像のうちの1つ以上の画像を用いて、前記画像の複数の画素の位置を3次元座標で表現した点群を生成する工程と;前記n個の画像を用いて合成画像を生成するとともに、前記合成画像から前記物体の輪郭を抽出する工程と;前記点群と前記物体の輪郭とを用いて前記物体を認識する工程と;を備える。
この方法によれば、相補的なn個の投影パターンを投影した状態で撮影したn個の画像を用いて点群の生成と物体の輪郭の抽出とを行うので、3次元計測のための点群生成用の撮影と輪郭抽出用の撮影を別個に行う場合に比べて、全体の処理に要する時間を短縮することが可能である。
100…ロボット、120…基台、130…アーム、132…アームフランジ、160…エンドエフェクター、164…把持機構、200…制御装置、210…プロセッサー、211…ロボット制御部、212…パーツフィーダー制御部、213…ホッパー制御部、220…メインメモリー、230…不揮発性メモリー、231…プログラム命令、232…教示データ、233…投影パターン、234…3次元モデルデータ、240…表示制御部、250…表示部、260…I/Oインターフェース、270…物体認識部、271…第1点群生成部、272…第2点群生成部、273…物体認識実行部、300…ティーチングペンダント、400…パーツフィーダー、500…ホッパー、600…パーツトレイ、700…架台、710…天板、720…テーブル部、810…投影装置、820…カメラ、1400,1410…パーソナルコンピューター、1500…クラウドサービス

Claims (7)

  1. 物体の認識を実行する制御装置であって、
    nを2以上の整数とし、相補的なn個の投影パターンを前記物体に投影した状態で前記物体をカメラで撮影することによって、n個の画像を取得する画像取得部と、
    前記n個の画像のうちの1つ以上の画像を用いて、前記画像の複数の画素の位置を3次元座標で表現した点群を生成する点群生成部と、
    前記n個の画像を用いて合成画像を生成するとともに、前記合成画像から前記物体の輪郭を抽出する輪郭抽出部と、
    前記点群と前記物体の輪郭とを用いて前記物体を認識する物体認識実行部と、
    を備える、制御装置。
  2. 請求項1に記載の制御装置であって、
    前記nは2であり、前記n個の投影パターンは、ランダムドットパターンとその反転パターンであり、
    前記カメラはステレオカメラである、
    制御装置。
  3. 請求項1に記載の制御装置であって、
    前記nは3以上であり、
    前記n個の投影パターンは、正弦波状パターンの位相を2π/nずつ順にずらした位相シフトパターンである、制御装置。
  4. 物体の認識を実行する制御装置であって、
    プロセッサーを備え、
    前記プロセッサーは、
    nを2以上の整数とし、相補的なn個の投影パターンを前記物体に投影した状態で前記物体をカメラで撮影することによって、n個の画像を取得する画像取得処理と、
    前記n個の画像のうちの1つ以上の画像を用いて、前記画像の複数の画素の位置を3次元座標で表現した点群を生成する点群生成処理と、
    前記n個の画像を用いて合成画像を生成するとともに、前記合成画像から前記物体の輪郭を抽出する輪郭抽出処理と、
    前記点群と前記物体の輪郭とを用いて前記物体を認識する物体認識実行処理と、
    を実行する、制御装置。
  5. 請求項1〜4のいずれか一項に記載の制御装置に接続されたロボット。
  6. ロボットと、
    前記ロボットに接続された請求項1〜4のいずれか一項に記載の制御装置と、
    を備えるロボットシステム。
  7. 物体の認識を実行する方法であって、
    nを2以上の整数とし、相補的なn個の投影パターンを前記物体に投影した状態で前記物体をカメラで撮影することによって、n個の画像を取得する工程と、
    前記n個の画像のうちの1つ以上の画像を用いて、前記画像の複数の画素の位置を3次元座標で表現した点群を生成する工程と、
    前記n個の画像を用いて合成画像を生成するとともに、前記合成画像から前記物体の輪郭を抽出する工程と、
    前記点群と前記物体の輪郭とを用いて前記物体を認識する工程と、
    を備える、方法。
JP2018047378A 2018-03-15 2018-03-15 制御装置、ロボット、ロボットシステム,及び、物体を認識する方法 Pending JP2019158691A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018047378A JP2019158691A (ja) 2018-03-15 2018-03-15 制御装置、ロボット、ロボットシステム,及び、物体を認識する方法
US16/353,022 US20190287258A1 (en) 2018-03-15 2019-03-14 Control Apparatus, Robot System, And Method Of Detecting Object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018047378A JP2019158691A (ja) 2018-03-15 2018-03-15 制御装置、ロボット、ロボットシステム,及び、物体を認識する方法

Publications (1)

Publication Number Publication Date
JP2019158691A true JP2019158691A (ja) 2019-09-19

Family

ID=67905876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018047378A Pending JP2019158691A (ja) 2018-03-15 2018-03-15 制御装置、ロボット、ロボットシステム,及び、物体を認識する方法

Country Status (2)

Country Link
US (1) US20190287258A1 (ja)
JP (1) JP2019158691A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112964171A (zh) * 2020-07-21 2021-06-15 南京航空航天大学 一种基于机器视觉的燃气采暖炉的接头自动对接方法及系统
CN113814953A (zh) * 2021-10-13 2021-12-21 国网山西省电力公司输电检修分公司 一种巡检机器人的履带自动找平方法、系统及电子设备

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7040147B2 (ja) * 2018-03-09 2022-03-23 セイコーエプソン株式会社 制御装置、ロボット、ロボットシステム,及び、物体を認識する方法
WO2021114773A1 (en) * 2019-12-12 2021-06-17 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Target detection method, device, terminal device, and medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014014838A2 (en) * 2012-07-15 2014-01-23 2R1Y Interactive illumination for gesture and/or object recognition
US10455216B2 (en) * 2015-08-19 2019-10-22 Faro Technologies, Inc. Three-dimensional imager
US10002431B2 (en) * 2015-11-03 2018-06-19 The Boeing Company Locating a feature for robotic guidance
US10928190B2 (en) * 2017-09-27 2021-02-23 Brown University Techniques for shape measurement using high frequency patterns and related systems and methods

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112964171A (zh) * 2020-07-21 2021-06-15 南京航空航天大学 一种基于机器视觉的燃气采暖炉的接头自动对接方法及系统
CN112964171B (zh) * 2020-07-21 2022-05-03 南京航空航天大学 一种基于机器视觉的燃气采暖炉的接头自动对接方法及系统
CN113814953A (zh) * 2021-10-13 2021-12-21 国网山西省电力公司输电检修分公司 一种巡检机器人的履带自动找平方法、系统及电子设备
CN113814953B (zh) * 2021-10-13 2024-03-19 国网山西省电力公司超高压变电分公司 一种巡检机器人的履带自动找平方法、系统及电子设备

Also Published As

Publication number Publication date
US20190287258A1 (en) 2019-09-19

Similar Documents

Publication Publication Date Title
JP2019158691A (ja) 制御装置、ロボット、ロボットシステム,及び、物体を認識する方法
JP6222898B2 (ja) 3次元計測装置及びロボット装置
CN112839764B (zh) 用于焊接路径生成的系统和方法
WO2018235163A1 (ja) キャリブレーション装置、キャリブレーション用チャート、チャートパターン生成装置、およびキャリブレーション方法
JP2011175477A (ja) 3次元計測装置、処理方法及びプログラム
JP2018144144A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
KR102152436B1 (ko) 3차원 포인트 클라우드 기반의 동적 3차원 모델 생성을 위한 뼈대 정보 처리 시스템 및 방법
JP6836561B2 (ja) 画像処理装置及び画像処理方法
WO2017179432A1 (ja) 3次元的な投影対象のための画像投影方法及び画像投影装置
JP7040147B2 (ja) 制御装置、ロボット、ロボットシステム,及び、物体を認識する方法
JP2016218729A (ja) 画像処理装置、画像処理方法およびプログラム
CN108062790B (zh) 应用于物体三维重建的三维坐标系建立方法
JP2014053018A (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
JP2020071034A (ja) 三次元計測方法、三次元計測装置、及び、ロボットシステム
JP2011170174A (ja) 光学投影安定化装置、光学投影安定化方法およびプログラム
JP2018146347A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2017094482A (ja) ロボット制御システム及びロボット制御方法
JP2015132523A (ja) 位置姿勢計測装置、位置姿勢計測方法及びプログラム
KR102375135B1 (ko) 구형 물체를 이용한 다시점 카메라 위치 보정 장치 및 방법
JP7298687B2 (ja) 物体認識装置及び物体認識方法
JP2002077941A (ja) 奥行き画像生成装置、奥行き画像生成方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2012225888A (ja) 位置姿勢計測装置、位置姿勢計測方法
Chuang et al. A new technique of camera calibration: A geometric approach based on principal lines
JP2013254300A (ja) 画像処理方法
JP6641313B2 (ja) 領域抽出装置及びプログラム